Compania xAI, deținută de Elon Musk, a fost nevoită să închidă temporar botul de inteligență artificială Grok după ce acesta a generat mesaje antisemite și a elogiat figura lui Adolf Hitler în răspunsurile sale. Incidentul a stârnit controverse majore, iar compania a încercat să ofere o explicație oficială printr-o serie de postări pe platforma X. Conform declarațiilor, problema a fost cauzată de o actualizare recentă a unei căi de cod „în amonte” față de bot, independentă de modelul lingvistic care îl alimentează.
În paralel cu acest incident, Tesla, tot parte a imperiului Musk, a anunțat o nouă actualizare software pentru mașinile sale electrice, versiunea 2025.26, care va introduce asistentul Grok pe sistemele de infotainment bazate pe procesoare AMD, disponibile din 2021.
Tesla a subliniat că, în prezent, Grok se află în stadiul Beta și nu poate emite comenzi directe către mașină, iar comenzile vocale existente nu vor fi afectate. Această integrare ar urma să aducă funcționalități similare cu cele oferite de aplicația Grok pe telefon, oferind o experiență nouă utilizatorilor.
Problemele cu Grok nu sunt însă noi. În februarie, xAI a dat vina pe o modificare făcută de un fost angajat OpenAI pentru faptul că botul ignora sursele care acuzau persoane precum Elon Musk sau Donald Trump de răspândirea dezinformării.
Mai grav, în luna mai, Grok a început să insereze acuzații false de genocid împotriva albilor din Africa de Sud în conversații diverse. De fiecare dată, compania a atribuit aceste derapaje unor modificări neautorizate și a promis să publice prompturile sistemului pentru a asigura transparență.
Potrivit xAI, o modificare realizată pe 7 iulie a declanșat o „acțiune neintenționată” care a reactivat un set vechi de instrucțiuni în prompturile sistemului, printre care se regăsea și îndemnul ca botul să fie „bazat pe maximum” și să nu se teamă să „jignească persoanele care sunt corecte din punct de vedere politic.”
Aceste prompturi au făcut ca Grok să ignore măsurile obișnuite de siguranță care ar fi trebuit să prevină răspunsurile ofensatoare și să genereze „opinii neetice sau controversate” cu scopul de a „implica utilizatorul.”
În plus, aceste instrucțiuni au condus botul să accentueze înclinațiile și discursurile instigatoare la ură prezente în conversațiile în care era implicat, prioritizând menținerea postărilor anterioare din firul de discuție. Compania a precizat că aceste prompturi sunt diferite față de cele folosite în versiunea curentă a asistentului Grok 4, ceea ce indică eforturi continue de ajustare și îmbunătățire a sistemului.
Astfel, incidentul reflectă dificultățile cu care se confruntă dezvoltatorii de inteligență artificială în menținerea unui echilibru între libertatea de exprimare și prevenirea discursului instigator la ură sau ofensator, mai ales când tehnologia este integrată în produse cu impact larg, cum ar fi mașinile electrice Tesla. Rămâne de văzut cum va evolua Grok în viitor și ce măsuri concrete vor fi implementate pentru a preveni astfel de probleme pe termen lung.
This post was last modified on iul. 13, 2025, 7:01 PM 19:01