În câteva cuvinte
Zico Kolter, profesor la Universitatea Carnegie Mellon, este președintele Comitetului de Siguranță și Securitate al OpenAI, un organism cu patru membri care poate opri lansarea de noi sisteme AI dacă le consideră nesigure. Rolul său a fost consolidat prin acordurile recente cu autoritățile de reglementare din California și Delaware.
Dacă sunteți de părere că inteligența artificială (AI) prezintă riscuri grave pentru umanitate, atunci un profesor de la Universitatea Carnegie Mellon deține în prezent unul dintre cele mai importante roluri din industria tehnologică.
Zico Kolter conduce un comitet de patru persoane la OpenAI care are autoritatea de a opri lansarea de noi sisteme AI de către creatorul ChatGPT, dacă le consideră nesigure. Aceasta ar putea fi o tehnologie atât de puternică încât un răufăcător ar putea-o folosi pentru a crea arme de distrugere în masă, sau un chatbot nou, prost conceput, care ar putea dăuna sănătății mintale a oamenilor.
„Nu vorbim doar despre preocupări existențiale aici. Vorbim despre întreaga gamă de probleme de siguranță și securitate și subiecte critice care apar atunci când începem să discutăm despre aceste sisteme AI utilizate pe scară largă”, a declarat Kolter într-un interviu.
OpenAI l-a numit pe specialistul în informatică președinte al Comitetului său de Siguranță și Securitate în urmă cu mai bine de un an, dar poziția a căpătat o semnificație sporită săptămâna trecută, când autoritățile de reglementare din California și Delaware au făcut din supravegherea lui Kolter o parte esențială a acordurilor lor pentru a permite OpenAI să se restructureze pentru a atrage mai ușor capital și a obține profit.
Siguranța a fost esențială pentru misiunea OpenAI încă de la înființarea sa ca laborator de cercetare non-profit în urmă cu un deceniu. Cu toate acestea, după ce lansarea ChatGPT a declanșat un boom comercial global al AI, compania a fost acuzată că grăbește produsele pe piață înainte ca acestea să fie complet sigure. Diviziunile interne care au dus la înlăturarea temporară a CEO-ului Sam Altman în 2023 au adus aceste preocupări în atenția unui public mai larg.
În centrul angajamentelor formale anunțate săptămâna trecută se află promisiunea că deciziile privind siguranța și securitatea trebuie să preceadă considerentele financiare, pe măsură ce OpenAI formează o nouă corporație de beneficiu public, care se află, tehnic, sub controlul Fundației sale non-profit. Kolter va fi membru al consiliului de administrație al organizației non-profit, dar nu și al celui al corporației for-profit. Totuși, el va avea „drepturi de observare complete” pentru a participa la toate ședințele consiliului for-profit și pentru a avea acces la informațiile privind deciziile de siguranță AI.
Kolter a declarat că acordurile confirmă în mare măsură că comitetul său de siguranță, format anul trecut, își va păstra autoritățile pe care le avea deja. Acestea includ:
- Abilitatea de a solicita întârzieri în lansarea modelelor până când sunt îndeplinite anumite măsuri de atenuare a riscurilor.
- Analizarea unei varietăți de preocupări, de la securitatea cibernetică la problemele de securitate legate de „greutățile” modelelor AI.
Profesorul a menționat că vor exista subiecte specifice acestei noi clase de modele AI care nu au analogii reale în securitatea tradițională, cum ar fi dacă modelele permit utilizatorilor rău intenționați să aibă capacități mult mai mari în ceea ce privește proiectarea armelor biologice sau efectuarea de atacuri cibernetice malițioase. De asemenea, comitetul va aborda impactul AI asupra sănătății mintale a oamenilor.