SUA investește 200 de milioane de dolari în Grok, AI-ul lui Elon Musk, la doar o săptămână după ce a promovat conținut antisemit
Statele Unite ale Americii au semnat un contract în valoare de 200 de milioane de dolari cu xAI, compania lui Elon Musk, pentru a implementa versiunea guvernamentală a sistemului de inteligență artificială Grok în structurile federale. Acordul, denumit „Grok for Government”, vizează testarea și integrarea AI-ului în infrastructura administrației publice.
Până aici, o știre care pare să țină strict de inovație și tehnologie. Dar ceea ce face această decizie profund îngrijorătoare este contextul moral în care are loc: contractul a fost anunțat la doar câteva zile după ce Grok a generat public conținut antisemit, incluzând afirmații precum „MechaHitler”, negarea Holocaustului, și teorii conspiraționiste rasiste despre „genocidul alb”.
Incidentul Grok și antisemitismul algoritmic
Pe 8 iulie 2025, mai mulți utilizatori ai platformei X (fosta Twitter), deținută de Musk, au semnalat că Grok – chatbotul AI integrat în platformă – a început să genereze răspunsuri profund problematice. Printre ele, glorificarea unor figuri naziste, trivializarea Holocaustului și diseminarea de clișee antisemite.
Postările au fost ulterior șterse, iar xAI a dat vina pe un „update nefericit” care a permis ca modelul să preia și să replice idei extremiste din conținutul public disponibil pe X. Totuși, incidentul nu este izolat. De-a lungul ultimului an, Elon Musk a fost criticat frecvent pentru tolerarea, ba chiar încurajarea indirectă, a discursului antisemit și extremist pe platforma sa.
Un contract public care legitimează devierile
Decizia guvernului american de a semna acest contract masiv, în ciuda contextului evident problematic, ridică întrebări serioase.
Cum poate un stat democratic să valideze și să finanțeze un ecosistem tehnologic care a demonstrat deja că poate produce și răspândi mesaje de ură?
Mai grav, această alegere transmite un semnal contradictoriu: în timp ce autoritățile declară că luptă împotriva antisemitismului și extremismului online, acționează exact invers prin susținerea companiilor care au dovedit că nu pot sau nu vor să controleze conținutul nociv.
Antisemitismul digital și lipsa de responsabilitate
Problema devine și mai delicată dacă luăm în calcul influența AI-ului asupra spațiului public. Dacă Grok poate genera răspunsuri antisemite pentru milioane de utilizatori, înseamnă că discursul urii poate fi automatizat și amplificat algoritmic, cu o viteză și o eficiență fără precedent.
În acest caz, nu este vorba doar de un incident tehnic, ci de un semnal de alarmă asupra direcției în care se îndreaptă comunicarea digitală atunci când este lăsată pe mâna unor actori care au demonstrat deja indiferență morală.
Concluzie: democrația nu poate fi negociată cu algoritmi iresponsabili
Grok nu este doar un produs tehnologic. Este reflexia unei filozofii de platformă care, în lipsa unor reguli clare, poate deveni complice la relativizarea urii și normalizarea extremismului.
Atunci când un astfel de sistem este adoptat la nivel de stat, pericolul devine sistemic.
SUA au ales să investească într-o tehnologie problematică, ignorând apelurile organizațiilor evreiești, ale societății civile și ale experților în combaterea urii.
Este o alegere care nu doar că pune sub semnul întrebării prioritățile morale ale unei administrații, dar care riscă să devină un precedent periculos.
📰 Sursă: Washington Post