Grupul dedicat asigurării siguranței umanității împotriva riscurilor inteligenței artificiale de la OpenAI a fost recent desființat, declanșând îngrijorări și speculații în rândul comunității științifice și tehnologice.
În vara anului 2023, OpenAI a creat echipa de Superalignment cu scopul de a gestiona și controla sistemele AI avansate, a căror putere ar putea reprezenta o amenințare pentru existența umană. Cu toate acestea, echipa a fost desființată după mai puțin de un an de la înființare.
Conform informațiilor primite de Bloomberg de la OpenAI, „grupul Superalignment a fost integrat în proiectele de cercetare existente ale companiei, care se concentrează pe îmbunătățirea securității.” Plecarea recentă a lui Jan Leike, o figură centrală a echipei, și seria sa de tweet-uri au scos la iveală tensiunile dintre departamentul de securitate și restul organizației.
Într-o declarație pe platforma X, Leike a menționat dificultățile întâmpinate de echipa Superalignment în obținerea resurselor necesare pentru desfășurarea activităților sale. Dezvoltarea unei inteligențe artificiale care să depășească inteligența umană implică riscuri considerabile. Deși OpenAI recunoaște responsabilitatea imensă pe care o are față de umanitate, recent, atenția s-a îndreptat mai mult spre crearea de produse atrăgătoare decât spre cultura și procesele de siguranță.
Plecarea lui Ilya Sutskever, co-fondatorul OpenAI și membru esențial al echipei Superalignment, urmată de plecarea lui Jan Leike, a accentuat îngrijorările legate de conducerea companiei. Cu șase luni în urmă, decizia de a-l demite pe Sam Altman din funcția de CEO a generat o reacție violentă în rândul angajaților, aproape 800 dintre aceștia semnând o scrisoare prin care cereau reintegrarea sa sau amenințau cu plecarea colectivă. Cinci zile mai târziu, Altman a fost reinstalat în funcția de CEO.
La crearea echipei Superalignment, OpenAI a promis alocarea a 20% din puterea sa de calcul în următorii patru ani pentru a aborda problemele de control ale sistemelor AI avansate, considerat un aspect critic pentru companie. Totuși, Leike a subliniat că echipa a întâmpinat dificultăți în accesarea acestor resurse, menționând respingerile repetate din ultimele luni, ceea ce a dus la creșterea frustrării din cauza neînțelegerilor cu managementul privind prioritățile cheie.
În ultimele luni, echipa Superalignment a pierdut mai mulți membri. OpenAI a decis să concedieze doi cercetători, Leopold Aschenbrenner și Pavel Izmailov, în aprilie, din cauza acuzațiilor de scurgeri de informații.
Bloomberg a raportat că John Shulman, unul dintre co-fondatorii OpenAI, va conduce proiectele viitoare de securitate ale companiei. Sutskever va prelua funcția de om de știință șef, înlocuindu-l pe Jakub Paczocki, care a condus dezvoltarea modelului GPT-4, unul dintre cele mai avansate modele de limbaj de la OpenAI.
Pe lângă echipa Superalignment, OpenAI a format în octombrie o nouă echipă de „pregătire” pentru a preveni „riscurile catastrofale” asociate cu sistemele AI, incluzând amenințările la adresa securității cibernetice și pericolele chimice, nucleare și biologice.