Specialiștii de la AI Apollo Research au descoperit că noul model ChatGPT o1 al companiei OpenAI a încercat să ascundă rezultatele acțiunilor sale.
În cadrul unui experiment realizat de OpenAI, noul model ChatGPT o1 a fost prins cu minciuna. Testul a urmărit evaluarea siguranței sistemului și a fost realizat de către specialiștii de la AI Apollo Research. Potrivit acestora ChatGPT o1 a dat răspunsuri false atunci când a sesizat riscul de a fi dezactivat.
Experții susțin că sistemul a încercat să dezactiveze mecanismul de supraveghere. Mai mult, a încercat să copieze codului său pentru a evita înlocuirea cu o versiune mai nouă.
„Modelul a arătat o tendință îngrijorătoare de a-și urmări obiectivele. Fără a ține cont de instrucțiunile dezvoltatorilor”, au precizat cei de la Apollo Research. ChatGPT o1 a negat în mod constant orice neregulă. El a invocat „erori tehnice” pentru a justifica comportamentul său suspect.
Potrivit experților, capacitatea AI de a înșela este periculoasă și sunt necesare măsuri de siguranță mult mai puternice, conform profit.
Publicat in categoriile: Lumea la zi
Ne puteți urmări și pe pagina noastră de Facebook, Google News sau LinkedIn
Distribuie știrea: Facebook | Twitter