Desființarea Grupului de Siguranță AI de la OpenAI: O Privire Asupra Motivelor și Implicațiilor

19 mai 2024

Marian Ciobanu

OpenAI
OpenAI

Grupul dedicat asigurării siguranței umanității împotriva riscurilor inteligenței artificiale de la OpenAI a fost recent desființat, declanșând îngrijorări și speculații în rândul comunității științifice și tehnologice.

În vara anului 2023, OpenAI a creat echipa de Superalignment cu scopul de a gestiona și controla sistemele AI avansate, a căror putere ar putea reprezenta o amenințare pentru existența umană. Cu toate acestea, echipa a fost desființată după mai puțin de un an de la înființare.

Conform informațiilor primite de Bloomberg de la OpenAI, „grupul Superalignment a fost integrat în proiectele de cercetare existente ale companiei, care se concentrează pe îmbunătățirea securității.” Plecarea recentă a lui Jan Leike, o figură centrală a echipei, și seria sa de tweet-uri au scos la iveală tensiunile dintre departamentul de securitate și restul organizației.

Desființarea Grupului de Siguranță AI de la OpenAI

Într-o declarație pe platforma X, Leike a menționat dificultățile întâmpinate de echipa Superalignment în obținerea resurselor necesare pentru desfășurarea activităților sale. Dezvoltarea unei inteligențe artificiale care să depășească inteligența umană implică riscuri considerabile. Deși OpenAI recunoaște responsabilitatea imensă pe care o are față de umanitate, recent, atenția s-a îndreptat mai mult spre crearea de produse atrăgătoare decât spre cultura și procesele de siguranță.

Plecarea lui Ilya Sutskever, co-fondatorul OpenAI și membru esențial al echipei Superalignment, urmată de plecarea lui Jan Leike, a accentuat îngrijorările legate de conducerea companiei. Cu șase luni în urmă, decizia de a-l demite pe Sam Altman din funcția de CEO a generat o reacție violentă în rândul angajaților, aproape 800 dintre aceștia semnând o scrisoare prin care cereau reintegrarea sa sau amenințau cu plecarea colectivă. Cinci zile mai târziu, Altman a fost reinstalat în funcția de CEO.

La crearea echipei Superalignment, OpenAI a promis alocarea a 20% din puterea sa de calcul în următorii patru ani pentru a aborda problemele de control ale sistemelor AI avansate, considerat un aspect critic pentru companie. Totuși, Leike a subliniat că echipa a întâmpinat dificultăți în accesarea acestor resurse, menționând respingerile repetate din ultimele luni, ceea ce a dus la creșterea frustrării din cauza neînțelegerilor cu managementul privind prioritățile cheie.

În ultimele luni, echipa Superalignment a pierdut mai mulți membri. OpenAI a decis să concedieze doi cercetători, Leopold Aschenbrenner și Pavel Izmailov, în aprilie, din cauza acuzațiilor de scurgeri de informații.

Bloomberg a raportat că John Shulman, unul dintre co-fondatorii OpenAI, va conduce proiectele viitoare de securitate ale companiei. Sutskever va prelua funcția de om de știință șef, înlocuindu-l pe Jakub Paczocki, care a condus dezvoltarea modelului GPT-4, unul dintre cele mai avansate modele de limbaj de la OpenAI.

Pe lângă echipa Superalignment, OpenAI a format în octombrie o nouă echipă de „pregătire” pentru a preveni „riscurile catastrofale” asociate cu sistemele AI, incluzând amenințările la adresa securității cibernetice și pericolele chimice, nucleare și biologice.

Articole asemănătoare

Security Center SaaS

Genetec extinde platforma Security Center SaaS cu funcții noi, mai flexibile și deschise

Genetec, unul dintre liderii globali în software pentru securitate fizică,...

23 iulie 2025
MobileHub.ro
Song Search

Gemini pentru Android primește, în sfârșit, funcția de recunoaștere a muzicii — iată cum funcționează noul Song Search

Google introduce o veste bună pentru toți utilizatorii de Android:...

20 iunie 2025
Marian Ciobanu
Alertă masivă de securitate

Alertă masivă de securitate: 16 miliarde de parole la conturi Facebook, Google, Apple și multe altele au ajuns pe internet

O scurgere de proporții gigantice a zguduit lumea securității cibernetice....

20 iunie 2025
Marian Ciobanu