Editorii încearcă să determine modul în care normele actuale privind drepturile de autor se pot aplica la roboții de chat cu inteligență artificială. Presa nordică a întrebat ChatGPT despre informațiile exclusive publicate în articole aflate în spatele zidurilor lor de plată
Editorii de știri se confruntă cu o dilemă: cum să împiedice roboții cu inteligență artificială precum ChatGPT să le fure conținutul.
Agențiile vor o compensație echitabilă de la platformele tehnologice
Astfel de puncte de vânzare au dreptul de a solicita o „compensație echitabilă” de la platformele tehnologice atunci când conținutul lor este utilizat pe motoarele de căutare sau pe rețelele sociale, de exemplu, datorită directivei Uniunii Europene privind drepturile de autor.
În timp ce editorii europeni încă așteaptă ca unele țări să transpună noile norme în legislație pentru a începe negocierile cu marile companii de tehnologie, precum Facebook sau Google, inteligența artificială generativă – denumită astfel deoarece poate fi utilizată pentru a genera conținut nou – a atras recent atenția factorilor de decizie și a autorităților de reglementare.
„Nu intrăm în dezbaterea privind IA cu teamă, dar, desigur, trebuie să analizăm provocările, iar drepturile de autor sunt una dintre ele”, a declarat Petra Wikström, director de politici publice la Schibsted, cel mai mare grup media din Scandinavia.
Boom-ul chatbot-urilor vine cu o mare incertitudine.
„Avem protecția drepturilor de autor pentru munca noastră, dar este mai degrabă o problemă de a putea să ne folosim de ele. Aplicarea legii este principala problemă”, a argumentat Iacob Gammeltoft, manager de politici la News Media Europe, o organizație care reunește editori din întreaga Europă.
Normele UE sunt în urmă
Monetizarea conținutului editorilor necesită o compensație, conform normelor UE – dar acest lucru este greu de stabilit, deoarece legiuitorii nu au prevăzut ascensiunea ChatGPT și a altora asemănători de la OpenAI atunci când a fost elaborată directiva.
„Nu sunt complet sigur că putem demonstra încălcarea drepturilor de vecinătate”, a declarat pentru POLITICO Pierre Petillault, directorul general al federației franceze de presă APIG. „Se pune problema cadrului legal și a excepției foarte largi privind extragerea de date”, a adăugat el.
Legiuitorii au inclus în directiva privind drepturile de autor o exceptare a crawling-ului în scopul extragerii de text și de date de la dreptul editorilor de a primi compensații. Titularii de drepturi se pot opune unei astfel de exploatări miniere cu „mijloace care pot fi citite automat”, care servesc drept semn de „interzicere a pătrunderii” pentru crawlere.
Unii editori doresc să folosească această opțiune pentru a tăia accesul crawlerelor la articolele lor, privând ChatGPT și chatbots similare de conținutul de înaltă calitate de care au nevoie pentru a oferi utilizatorilor răspunsuri precise. Acest lucru este în prezent analizat de editorii online francezi din cadrul asociației GESTE.
Dar chatbots „par să facă mai mult decât doar” minerit și nu ar trebui să beneficieze de această excepție consacrată în directivă, a declarat Gammeltoft.
„Inteligența artificială va perturba punerea în aplicare a drepturilor de autor. O evoluție a legislației actuale pare necesară pentru a elimina îndoielile și pentru a lărgi perimetrul drepturilor la specificul IA, care urmează să se hrănească masiv cu conținuturi protejate”, a declarat pentru POLITICO Sandra Strittmatter, avocat specializat în proprietate intelectuală în cadrul firmei franceze Franklin.
Dar Comisia Europeană nu vede neapărat loc pentru reguli mai specifice. Europarlamentarul francez de stânga Emmanuel Maurel a întrebat recent executivul UE despre „vidul juridic” cu care se confruntă artiștii pentru operele lor originale. Comisia a răspuns că „crearea de opere de artă de către IA nu merită o intervenție legislativă specifică”, având în vedere scutirile „relevante” pentru crawlere prevăzute de actualul cadru juridic.
Marea întrebare
În cazul în care directiva le permite titularilor de drepturi să revendice drepturile de autor, aceștia se vor confrunta în continuare cu provocarea de a determina ce conținut a fost răzuit și partajat – o sarcină dificilă și imprevizibilă, care poate necesita o oarecare cercetare.
„Facem câteva teste interne pentru a vedea dacă ChatGPT extrage conținut de la noi care se află în spatele paywall-ului”, a explicat Wikström.
Editorii nordici au întrebat ChatGPT despre informațiile exclusive publicate în articolele aflate în spatele zidurilor de plată, în încercarea de a identifica utilizarea nejustificată.
Dar „nu există nicio modalitate de a fi sigur 100% până când nu vezi baza de date de antrenament care [a fost] folosită pentru a antrena ChatGPT”, a declarat Gammeltoft pentru POLITICO, subliniind că cel mai bun lucru pe care îl pot face editorii este „să ghicească” și că rezultatele preliminare par să indice că ChatGPT depășește ceea ce este disponibil publicului.
Există o „fereastră de oportunitate” pentru a aborda această problemă odată cu viitoarea lege privind inteligența artificială, actul legislativ de referință al UE care vizează reglementarea utilizării inteligenței artificiale, a spus Gammeltoft.
Deputații europeni încă își definitivează poziția în acest dosar, dar ultimul lot de amendamente de compromis, văzut de POLITICO, pare să încline spre mai multă transparență, cerând dezvoltatorilor să dezvăluie modul în care au fost colectate datele folosite pentru a-și antrena IA.
„Legea privind IA a fost propusă înainte ca această problemă să ocupe un loc central în conversația publică și politică”, a declarat pentru POLITICO Dragoș Tudorache, europarlamentar Renew Europe, co-raportor în acest dosar. Tudorache a subliniat, de asemenea, ambiția Parlamentului de „a o adapta la noile realități și de a ține cont de evoluția rapidă a IA, propunând, de asemenea, un set de reguli pentru modelele de fundație care sunt de obicei antrenate pe cantități uriașe de date, inclusiv date protejate de drepturi de autor sau de proprietate intelectuală”.
„Suntem în curs de negociere a unor astfel de reguli, inclusiv unele legate de datele protejate prin drepturi de autor”, a adăugat el.
„Aceasta este o problemă foarte îngrijorătoare și încercăm să abordăm aceste preocupări în cadrul Legii privind inteligența artificială împreună cu colegul meu Tudorache”, a declarat eurodeputatul socialiștilor și democraților Brando Benifei, celălalt co-raportor. „Credem că furnizorii de GPAI ar trebui să fie mai transparenți, în special în ceea ce privește datele pe care le-au folosit pentru a-și antrena sistemele GPAI, astfel încât titularii de drepturi să își poată proteja mai bine drepturile.”
OpenAI nu a răspuns întrebărilor POLITICO pe această temă, dar a făcut trimitere la postarea sa de pe blog care prezintă modul de funcționare a ChatGPT.