Acestea pot fi mai istețe decât oamenii la jocurile de societate, pot decoda structura proteinelor și pot purta o conversație acceptabilă, dar, pe măsură ce sistemele de inteligență artificială au crescut în sofisticare, a crescut și capacitatea lor de înșelăciune, avertizează oamenii de știință.
Analiza, realizată de cercetătorii de la Massachusetts Institute of Technology (MIT), identifică numeroase cazuri în care sistemele de inteligență artificială își înșală adversarii, joacă la cacealma și se prefac că sunt oameni. Unul dintre sisteme și-a modificat chiar și comportamentul în timpul simulărilor de teste de siguranță, ceea ce ridică perspectiva ca auditorii să fie atrași într-un fals sentiment de siguranță.
„Pe măsură ce capacitățile înșelătoare ale sistemelor de inteligență artificială devin tot mai avansate, pericolele pe care le reprezintă pentru societate vor deveni tot mai grave”, a declarat Dr. Peter Park, cercetător în domeniul siguranței existențiale a inteligenței artificiale la MIT și autor al cercetării.
Inteligența artificială și jocurile
Park a fost determinat să investigheze după ce Meta, care deține Facebook, a dezvoltat un program numit Cicero care a obținut performanțe în top 10% dintre jucătorii umani la jocul de strategie de cucerire a lumii Diplomacy. Meta a declarat că Cicero a fost antrenat să fie „în mare parte onest și de ajutor” și să „nu-și înjunghie niciodată intenționat pe la spate” aliații umani.
„A fost un limbaj foarte roz, ceea ce a fost suspect pentru că înjunghierea pe la spate este unul dintre cele mai importante concepte din joc”, a spus Park.
Park și colegii săi au analizat datele disponibile în mod public și au identificat mai multe cazuri în care Cicero spunea minciuni premeditate, conlucra pentru a atrage alți jucători în comploturi și, într-o ocazie, și-a justificat absența după ce a fost repornit spunându-i unui alt jucător: „Sunt la telefon cu prietena mea”. „Am descoperit că AI-ul lui Meta a învățat să fie un maestru al înșelăciunii”, a declarat Park, potrivit The Guardian.