German Marshall Fund a lansat un instrument de urmărire a falsurilor generate de AI care vizează alegerile. Conținutul circulă în Statele Unite și în întreaga lume.
Instrumentul vine într-un an istoric pentru alegeri. Mai mult de jumătate din glob a organizat sau va organiza alegeri în 2024. Acest detaliu se ciocnește cu o creștere a numărului de înregistrări audio, video și imagini create de inteligența artificială. Situația furnizează adesea relatări și informații false despre candidați.
Statele Unite au avut deja parte de conținuturi generate de inteligența artificială care vizează alegerile. Conținutul variază de la înregistrări audio false care pretind că președintele Biden îi încurajează pe alegătorii din New Hampshire să nu participe la alegerile primare până la postarea de către fostul președinte Trump a unor imagini false cu Taylor Swift, sugerând în mod fals că cântăreața l-a susținut.
Un instrument de urmărire
Denumit „Spitting Images”, proiectul prezintă doar deepfakes care au câștigat o tracțiune semnificativă sau au fost dezmințite de jurnaliști.
Acesta oferă o verificare a faptelor pentru alegători. Lindsay Gorman, conducătorul proiectului, speră că instrumentul va detecta, de asemenea, tendințe care pot ajuta factorii de decizie politică. Astfel, se va putea evalua modul de reglementare a utilizării inteligenței artificiale în alegeri.
„Am vrut să înțelegem cum [IA] este de fapt implementată în lumea reală în acest an electoral istoric. Și pentru factorii de decizie politică care se gândesc la o potențială legislație sau la potențiale garduri de protecție privind inteligența artificială, în special în ceea ce privește IA politică, ar trebui să aibă cerințe de transparență atunci când vine vorba de politicieni și alegeri? Unde ar trebui să își concentreze eforturile?” a declarat Gorman.
Probleme la alegerile din Serbia
Dispozitivul de urmărire, care extrage date adunate în ultimul an, a cartografiat 133 de falsuri lansate în peste 30 de țări diferite. Gorman a declarat că au apărut în mod clar câteva tendințe. Este vorba inclusiv de una de falsurile audio, care au reprezentat aproape 70% din cazurile urmărite.
„Faptul este că stadiul actual al tehnologiei nu este atât de convingător atunci când vine vorba de imagini și videoclipuri, dar este atunci când vine vorba de audio. Este foarte dificil să îți dai seama când ceva a fost generat de AI”, a spus ea.
Sunetul generat de inteligența artificială a jucat deja un rol important în alegerile din Slovacia. Acolo, un sunet fals îl arăta pe unul dintre candidați, Michal Simecka, discutând despre fraudarea alegerilor și plănuind să crească prețul berii dacă va fi ales.
Musk și Trump o sabotează pe Harris
Înregistrarea audio falsă a apărut în timpul moratoriului de 48 de ore asupra campaniei electorale din țară, ceea ce o face dificil de dezmințit. Este greu de știut cât de mare a fost impactul înregistrării audio false. Simecka a pierdut în cele din urmă alegerile.
În unele cazuri, însă, credibilitatea AI poate să nu conteze. Elon Musk, proprietarul platformei social media X, a distribuit o fotografie cu vicepreședintele Harris purtând o uniformă comunistă. Deși fotografia este în mod clar falsă, aceasta a venit ca răspuns la o postare a lui Harris care îl numea pe Trump dictator.
Într-o altă postare a lui Musk, acesta a afișat un sunet generat de AI al lui Harris care se pretinde a fi un anunț de campanie în care aceasta îi mulțumește lui Biden pentru că și-a expus „senilitatea” în timpul dezbaterii și a proclamat că este „ultima angajare în domeniul diversității”. Gorman a declarat că chiar și eforturile care sunt evident false joacă un rol în discurs, conform thehill.