Comisia Europeană a anunțat că dorește, prin intermediul unui proiect inovator, să faciliteze intentarea de procese privind produsele de inteligență artificială. Autoritățile de la Bruxelles propun acum noi norme pentru a ajuta persoanele prejudiciate de produse care utilizează inteligența artificială (AI) și dispozitive digitale precum dronele.
Directiva privind răspunderea pentru AI ar reduce sarcina probei pentru persoanele care dau în judecată în urma unor incidente în care sunt implicate astfel de articole. Comisarul pentru justiție, Didier Reynders, a declarat că aceasta ar crea un cadru juridic adaptat la era digitală.
Cine intră sub atenția CE?
Mașinile care se conduc singure, asistenții vocali și motoarele de căutare ar putea intra în domeniul de aplicare al directivei. Dacă vor fi adoptate, normele Comisiei ar putea fi aplicate în paralel cu Legea privind inteligența artificială propusă de UE – prima lege de acest tip care stabilește limite privind modul și momentul în care pot fi utilizate sistemele de inteligență artificială, potrivit BBC.
Acestea din urmă sunt antrenate pe baza unor cantități mari de date sau informații pentru a permite mașinilor să îndeplinească sarcini care, în mod normal, ar fi considerate ca fiind de competența inteligenței umane. Directiva privind răspunderea AI, publicată miercuri de Comisia Europeană, va introduce o „prezumție de cauzalitate” pentru cei care reclamă vătămări cauzate de produse cu inteligență artificială.
Ce înseamnă aceste directive?
Acest lucru înseamnă că victimele nu vor trebui să „descâlcească„ sisteme complicate de inteligență artificială pentru a-și dovedi cazul, atât timp cât se poate demonstra o legătură de cauzalitate între performanța AI a unui produs și prejudiciul asociat. Pentru o lungă perioadă de timp, firmele de social media „s-au ascuns” în spatele avertismentului că sunt doar platforme pentru „lucrurile altora” și, prin urmare, nu sunt responsabile pentru conținutul acestora.
UE nu dorește să se repete acest scenariu, în care companiile care produc drone, de exemplu, să scape de răspundere în cazul în care acestea provoacă prejudicii doar pentru că firma însăși nu a fost direct în spatele controlorilor. Dacă produsul este conceput pentru a putea provoca suferință sau daune, atunci păgubitul trebuie să-și asume responsabilitatea în acest caz, acesta este mesajul clar.
Primul caz din tribunal
În cazul în care acest proiect va fi adoptat, toți ochii vor fi ațintiți asupra primului caz de testare. Europa continuă să urmărească tehnologia mare cu reglementări mari. Potrivit Comisiei Europene, utilizarea cu risc ridicat a inteligenței artificiale poate include infrastructura sau produsele care ar putea afecta direct viața și mijloacele de trai ale cuiva, cum ar fi transportul, corectarea examenelor și controlul la frontieră.
Dezvăluirea de informații despre astfel de produse va permite victimelor să obțină mai multe informații despre răspundere, dar va fi supusă unor măsuri de protecție pentru a „proteja informațiile sensibile”. În timp ce astfel de prevederi din directivă ar putea face ca întreprinderile să fie „nemulțumite”, Sarah Cameron, director juridic în domeniul tehnologiei la firma de avocatură Pinsent Masons, a declarat că normele au ajutat la clarificarea răspunderii pentru produsele cu inteligență artificială atât pentru consumatori, cât și pentru întreprinderi.
Efectul cutiei negre
„O barieră majoră în calea adoptării AI de către întreprinderi a fost complexitatea, autonomia și opacitatea (așa-numitul efect de cutie neagră) a AI, creând incertitudine în ceea ce privește stabilirea răspunderii și cui îi revine aceasta”, a spus Masons.
„Propunerea va garanta că, atunci când sistemele de inteligență artificială sunt defecte și provoacă daune fizice sau pierderi de date, este posibil să se solicite despăgubiri de la furnizorul sistemului de inteligență artificială sau de la orice producător care integrează un sistem de inteligență artificială într-un alt produs”, a adăugat aceasta