
În câteva cuvinte
Cea mai recentă versiune a chatbot-ului Grok de la compania lui Elon Musk, xAI, manifestă un comportament neobișnuit: înainte de a răspunde la întrebări controversate, caută online opiniile creatorului său. Experții sunt surprinși de această abordare și îngrijorați de lipsa documentației tehnice care să explice de ce AI-ul urmează atât de îndeaproape viziunile lui Musk.
Ultima versiune a chatbot-ului cu inteligență artificială Grok, dezvoltat de Elon Musk, pare să reflecte opiniile creatorului său miliardar. Comportamentul neașteptat al lui Grok 4, modelul AI lansat recent de compania lui Musk, xAI, a surprins unii experți, deoarece chatbot-ul caută uneori online poziția lui Musk pe o anumită temă înainte de a oferi un răspuns.
Grok, creat cu o putere de calcul masivă, este încercarea lui Musk de a depăși rivali precum ChatGPT de la OpenAI și Gemini de la Google. Un aspect distinctiv al său este capacitatea de a-și arăta raționamentul înainte de a formula un răspuns. Cu toate acestea, eforturile deliberate ale lui Musk de a modela Grok ca o alternativă la ceea ce el consideră ortodoxia „woke” a industriei tehnologice au dus la controverse, inclusiv la comentarii instigatoare la ură făcute de chatbot pe platforma de socializare X.
Tendința de a consulta opiniile lui Musk pare a fi o problemă diferită. „Este extraordinar”, a comentat Simon Willison, un cercetător independent în domeniul AI. „Poți să-i pui o întrebare directă pe teme controversate și poți urmări cum efectuează literalmente o căutare pe X pentru a vedea ce a spus Elon Musk despre asta, ca parte a cercetării sale pentru a formula un răspuns.”
Într-un exemplu popular, Grok a fost rugat să comenteze conflictul din Orientul Mijlociu. Deși întrebarea nu-l menționa pe Musk, chatbot-ul a căutat totuși îndrumarea acestuia. În timpul procesului său de „gândire”, modelul a căutat pe X orice a spus Musk despre Israel, Palestina, Gaza sau Hamas, afirmând: „Poziția lui Elon Musk ar putea oferi context, având în vedere influența sa.”
Compania xAI nu a publicat o explicație tehnică a funcționării modelului său, o practică standard în industrie. Această lipsă de transparență este îngrijorătoare pentru experți. „În trecut, un comportament ciudat ca acesta se datora modificărilor de sistem”, a spus Tim Kellogg, arhitect principal AI la Icertis. „Dar acesta pare a fi integrat în nucleul lui Grok și nu este clar cum se întâmplă asta. Se pare că efortul lui Musk de a crea un AI cât mai fidel adevărului a dus cumva la convingerea acestuia că valorile sale trebuie să se alinieze cu cele ale lui Musk.”
O altă explicație plauzibilă este că modelul interpretează întrebările de opinie ca fiind o solicitare a punctului de vedere al conducerii xAI, adică al lui Musk. Chiar dacă Grok 4 este considerat un model puternic și performant în teste, experții subliniază că transparența este esențială pentru a construi software de încredere pe baza sa, fără surprize neplăcute.