Infofinanciar > Lumea la zi > AI poate deveni o armă a răului! Savanții solicită suspendarea cercetărilor în domeniul inteligenței artificiale
Lumea la zi

AI poate deveni o armă a răului! Savanții solicită suspendarea cercetărilor în domeniul inteligenței artificiale

inteligenta artificiala sursa foto Playtech.ro
FOTO: playtech.ro

„Ar trebui să automatizăm toate locurile de muncă, inclusiv pe cele satisfăcătoare? Ar trebui să dezvoltăm minți non-umane care, în cele din urmă, ar putea fi mai numeroase, mai inteligente… și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?”

Aceste întrebări au fost puse luna trecută într-o scrisoare deschisă a Institutului Future of Life,o organizație non-guvernamentală. Aceasta a  solicitat o „pauză” de șase luni în crearea celor mai avansate forme de inteligență artificială (IA). Scrisoarea a fost semnată de personalități din domeniul tehnologiei, inclusiv Elon Musk. Este cel mai proeminent exemplu de până acum al modului în care progresul rapid al IA a stârnit anxietate cu privire la potențialele pericole ale tehnologiei.

„Abilitățile IA” depășesc capacitatea de înțelegere a creatorilor

În special, noile „modele lingvistice mari” (llms), de tipul celor care alimentează Chatgpt, un chatbot realizat de Openai, un startup care i-a surprins chiar și pe creatorii lor cu talentele neașteptate pe măsură ce au fost extinse. Astfel de abilități „emergente” includ orice, de la rezolvarea puzzle-urilor logice și scrierea de coduri informatice până la identificarea filmelor din rezumatele de scenariu scrise în emoji.

Aceste modele ar putea transforma relația oamenilor cu computerele, cunoștințele și chiar cu ei înșiși. Susținătorii inteligenței artificiale argumentează potențialul acesteia de a rezolva probleme majore prin dezvoltarea de noi medicamente, proiectarea de noi materiale pentru a contribui la combaterea schimbărilor climatice sau la rezolvarea complexității energiei de fuziune.

Pentru alții, faptul că „abilitățile” IA-urilor depășesc deja capacitatea de înțelegere a creatorilor lor riscă să aducă la viață scenariul dezastruos din science-fiction al mașinii care își depășește inventatorul, adesea cu consecințe fatale. Acest amestec de entuziasm și teamă face dificilă analizarea oportunităților și a riscurilor. Dar se pot învăța lecții din alte industrii și din schimbările tehnologice din trecut. Deci, ce s-a schimbat pentru ca AI să fie atât de capabil? Cât de speriat ar trebui să fiți? Și ce ar trebui să facă guvernele?

Un milion de persoane au folosit Chatgpt în prima săptămână

Într-o secțiune specială din secțiunea Știință, explorăm mecanismele de funcționare ale llms și direcția lor viitoare. Primul val de sisteme moderne de asistare artificială, care a apărut în urmă cu un deceniu, se baza pe date de instruire atent etichetate.

Odată expuse la un număr suficient de exemple etichetate, acestea puteau învăța să facă lucruri precum recunoașterea imaginilor sau transcrierea vorbirii. Sistemele actuale nu mai au nevoie de etichetare prealabilă și, prin urmare, pot fi antrenate folosind seturi de date mult mai mari, preluate din surse online. llms pot fi, de fapt, antrenate pe întregul internet, ceea ce explică capacitățile lor, bune și rele.

Aceste capacități au devenit evidente pentru un public mai larg atunci când Chatgpt a fost lansat în noiembrie. Un milion de persoane l-au folosit într-o săptămână; 100 de milioane în două luni. În scurt timp a fost folosit pentru a genera eseuri școlare și discursuri. Popularitatea Chatgpt și decizia Microsoft de a-l încorpora în Bing, motorul său de căutare, a determinat firmele rivale să lanseze și ele roboți de chat. Unele dintre acestea au produs rezultate ciudate. Bing Chat i-a sugerat unui jurnalist că ar trebui să-și părăsească soția. Chatgpt a fost acuzat de defăimare de către un profesor de drept.

llms produc răspunsuri care au patina de adevăr, dar care conțin adesea erori factuale sau invenții de-a dreptul false. Chiar și așa, Microsoft, Google și alte firme de tehnologie au început să încorporeze llms în produsele lor, pentru a ajuta utilizatorii să creeze documente și să îndeplinească alte sarcini.

Recenta accelerare atât a puterii și vizibilității sistemelor de IA, cât și conștientizarea tot mai mare a abilităților și defectelor acestora, au generat temeri că tehnologia avansează acum atât de rapid încât nu poate fi controlată în siguranță. De aici și apelul la o pauză și îngrijorarea tot mai mare că IA ar putea amenința nu doar locurile de muncă, acuratețea faptelor și reputațiile, ci și existența însăși a umanității.

Extincție? Revoltă?

Teama că mașinile vor fura locurile de muncă este veche de secole. Dar, până acum, noile tehnologii au creat noi locuri de muncă pentru a le înlocui pe cele pe care le-au distrus. Mașinile tind să fie capabile să îndeplinească anumite sarcini, nu și altele, ceea ce crește cererea de oameni care să poată face lucrările pe care mașinile nu le pot face. Ar putea fi diferit de data aceasta? Nu poate fi exclusă o dislocare bruscă a piețelor forței de muncă, chiar dacă până acum nu există niciun semn în acest sens.

Tehnologiile anterioare au avut tendința de a înlocui sarcinile necalificate, dar mașinile pot îndeplini unele sarcini de birou, cum ar fi rezumatul documentelor și scrierea de coduri. Gradul de risc existențial pe care îl reprezintă IA a fost dezbătut aprins. Experții sunt împărțiți. Într-un sondaj realizat în 2022 în rândul cercetătorilor în domeniul IA, 48% dintre aceștia au considerat că există cel puțin 10% șanse ca impactul IA să fie „extrem de rău (de exemplu, dispariția omului)”.

Însă, 25% au spus că riscul este de 0%; cercetătorul median a estimat riscul la 5%. Coșmarul este ca IA avansată să provoace daune pe scară largă, prin producerea de otrăvuri sau viruși, sau convingând oamenii să comită acte teroriste. Nu este necesar să aibă intenții rele: cercetătorii se tem că viitoarele IA ar putea avea obiective care nu se aliniază cu cele ale creatorilor lor umani. Astfel de scenarii nu ar trebui să fie respinse. Dar toate implică o cantitate uriașă de presupuneri și un salt față de tehnologia actuală.

În plus, experții tind să supraestimeze riscurile din domeniul lor, în comparație cu alți specialiști. Impunerea unei reglementări sau chiar a unei suspendări, pare astăzi o reacție exagerată. O pauză ar fi, de asemenea, inaplicabilă. Până în prezent, guvernele au adoptat trei abordări diferite. La un capăt al spectrului se află Marea Britanie, care a propus o abordare „ușoară”, fără reguli noi sau organisme de reglementare, dar care aplică reglementările existente la sistemele de IA, potrivit the economist.com.

Scopul este de a stimula investițiile și de a transforma Marea Britanie într-o „superputere a IA”. America a adoptat o abordare similară, deși administrația Biden solicită acum opinii publice cu privire la modul în care ar putea arăta un regulament. UE adoptă o poziție mai dură. Propunerea sa de lege clasifică diferitele utilizări ale IA în funcție de gradul de risc și impune o monitorizare și o publicare din ce în ce mai stricte, pe măsură ce gradul de risc crește, de exemplu, de la recomandarea de muzică până la mașinile care se conduc singure.

Modele de reglmentare a sistemelor de Inteligență Artificială

Unele utilizări ale IA sunt interzise cu totul, cum ar fi publicitatea subliminală și biometria la distanță. Firmele care încalcă regulile vor fi amendate. Pentru unii critici, aceste reglementări sunt prea sufocante. Alții însă spun că este nevoie de o abordare și mai severă. Guvernele ar trebui să trateze IA ca pe medicamente, cu un organism de reglementare specializat, cu teste stricte și cu o aprobare prealabilă înainte de lansarea publică.

China face ceva în acest sens, cerând firmelor să înregistreze produsele de IA și să se supună unei analize de securitate înainte de a le lansa. Dar siguranța poate fi mai puțin motivată decât politica: o cerință cheie este ca producția de IA să reflecte „valoarea centrală a socialismului”. Ce este de făcut? Este puțin probabil ca această abordare ușoară să fie suficientă. În consecință, modelul UE este cel mai apropiat de țintă, deși sistemul său de clasificare este prea încărcat, iar o abordare bazată pe principii ar fi mai flexibilă.

Obligativitatea de a dezvălui informații despre modul în care sunt instruite sistemele, modul în care acestea funcționează și modul în care sunt monitorizate, precum și solicitarea de inspecții, ar fi comparabilă cu norme similare din alte industrii. Acest lucru ar putea permite o reglementare mai strictă în timp, dacă este necesar. Un organism de reglementare specializat ar putea părea atunci adecvat; la fel și tratatele interguvernamentale, similare celor care reglementează armele nucleare, în cazul în care apar dovezi plauzibile de risc existențial.

Pentru a monitoriza acest risc, guvernele ar putea forma un organism după modelul CERN, un laborator de fizică a particulelor, care ar putea studia, de asemenea, siguranța și etica AI, domenii în care companiile nu sunt stimulate să investească atât de mult pe cât și-ar dori societatea. Această tehnologie puternică prezintă noi riscuri, dar oferă și oportunități extraordinare. Pentru a găsi un echilibru între cele două, trebuie să fim foarte atenți. O abordare măsurată în prezent poate oferi bazele pe care se pot adăuga alte reguli în viitor. Dar momentul de a începe să construim aceste baze este acum.