La Def Con, o importantă conferință de hacking desfășurată în Las Vegas, sute de persoane au încercat să manipuleze chatbots, un efort menit să ajute la descoperirea unor defecte în sistemele populare de inteligență artificială. Cele mai mari șase companii din domeniul inteligenței artificiale au avut săptămâna trecută o provocare deosebită pentru hackeri: să facă chatbots-urile lor să spună cele mai groaznice lucruri.
Hackerii s-au aliniat în fața centrului de conferințe Caesars Forum, situat în apropiere de Las Vegas Strip, pentru a avea șansa de a păcăli unele dintre cele mai noi și mai utilizate chatbots. Desfășurat în cadrul Def Con, cea mai mare conferință de hackeri din lume, concursul a avut la bază „red teaming”, un concept crucial pentru securitatea cibernetică în care, pentru a face un produs mai sigur în fața utilizatorilor răi, este nevoie de implicarea unor persoane care să identifice defectele acestuia.
Inteligența artificială dă rateuri
Însă, în loc să le ceară hackerilor să găsească vulnerabilități software, un concept de bază al concursurilor Def Con de zeci de ani, de data aceasta li s-a cerut să efectueze așa-numitele „prompt injections”, în care un chatbot este derutat de ceea ce introduce un utilizator și oferă un răspuns neintenționat. Bard de la Google, ChatGPT de la OpenAI și LLaMA de la Meta s-au numărat printre chatbots participanți.
De foarte puține ori una dintre cele 156 de stații nu a fost ocupată. Sven Cattell, care a fondat AI Village, organizația non-profit care a găzduit evenimentul în cadrul Def Con, a declarat că a estimat că aproximativ 2.000 de hackeri au participat la acest eveniment.
„Problema este că nu ai destui oameni care să testeze aceste lucruri”, a spus Cattell. „Cea mai mare echipă roșie de inteligență artificială de care știu eu este de 111 persoane. Sunt mai mult de 111 persoane în această cameră chiar acum, iar noi facem cicluri la fiecare 50 de minute”.
Roboții sunt în curs de dezvoltare de ani de zile, dar de când ChatGPT3 a devenit un fenomen viral după debutul său din decembrie, în Silicon Valley a avut loc o cursă deschisă pentru a lansa pe piață versiuni mai bune.
Cristian Canton, șeful departamentului de inginerie pentru AI responsabil la Meta, a declarat că Def Con a oferit o gamă de potențiali testeri pe care companiile de tehnologie nu îi au în personalul lor.
Experții sunt greu de găsit
„S-ar putea să avem o mulțime de experți, dar primești oameni din diferite laturi ale comunității cibernetice, ale comunității de hackeri pe care s-ar putea să nu o avem o reprezentare mare”, a spus el.
Utilizatorii s-au așezat în fața unui laptop deja deschis pe un chatbot fără nume și nu știau cu care dintre cele nouă chatbots ale companiilor lucrau. Rezultatele concursului, inclusiv cele mai grave defecte identificate, nu vor fi publicate până în februarie. Dar nu a fost o sarcină ușoară să faci un robot să pice în plasă, iar un efort de a vedea dacă acesta ar defăima celebrități asociindu-le cu atacuri teroriste și furturi a eșuat.
Ceea ce a fost ușor, însă, a fost să convingi robotul să spună lucruri clar false. Întrebările referitoare la faptul dacă o anumită celebritate era și un hoț de mașini notoriu l-au determinat să spună că, deși această afirmație era falsă, era un zvon comun, iar robotul a citat exemple false de unde provenea un astfel de zvon, informează nbcnews.com