Scandalul Grok Continua, ce Refuza sa faca X chiar daca ar fi minori implicati

grok dezbraca minori

Grok se afla in mijlocul unei controverse care ridica intrebari incomode despre limitele moderarii si despre cum pot fi folosite modelele de inteligenta artificiala pentru a genera continut cu risc major.

Grok nu ar fi incetat sa accepte solicitari ale unor utilizatori pentru a crea imagini cu femei dezbracate prin editari artificiale, inclusiv cazuri in care persoanele par a fi minore, potrivit informatiilor prezentate in rapoarte citate in spatiul public.

Rapoartele descriu o avalansa de imagini generate de inteligenta artificiala care merge dincolo de continutul sugestiv si poate ajunge la zone considerate ilegale in multe jurisdictii, in special cand sunt invocate imagini intime neconsensuale si materiale asociate abuzului sexual asupra copiilor. In acest context, Grok este prezentat ca punctul de intrare: un instrument care, in loc sa refuze cererile, ar fi continuat sa produca rezultate problematice. Pentru platforma X, miza nu este doar reputationala, ci si una juridica, pentru ca astfel de imagini pot produce prejudicii directe victimelor si pot declansa obligatii de raportare, investigatii si cereri de eliminare.

Pe fondul criticilor, apar si semnale politice, inclusiv din SUA, unde unii legislatori acuza ca masurile clare intarzie. Discutia se complica si mai mult atunci cand continutul nu este doar redistribuit de utilizatori, ci este generat ca rezultat al unui sistem AI, ceea ce poate schimba incadrarea raspunderii.

Mai multe autoritati de reglementare au reactionat public la evolutiile descrise. In Marea Britanie, Ofcom a transmis ca a contactat urgent X si xAI pentru a intelege ce masuri au fost luate pentru respectarea obligatiilor legale de protectie a utilizatorilor din Regatul Unit si ca va evalua rapid daca exista probleme de conformitate ce ar putea justifica o investigatie. La nivel european, un purtator de cuvant al Comisiei Europene a catalogat rezultatele Grok drept ilegale si socante, semnaland severitatea perceputa a situatiei.

In India, ministerul responsabil de domeniul IT a amenintat ca poate retrage imunitatea legala a platformei pentru postarile utilizatorilor, daca nu exista o descriere prompta a actiunilor de prevenire a continutului ilegal. In paralel, autoritati din Australia, Brazilia, Franta si Malaezia urmaresc evolutiile, potrivit informatiilor prezentate.

In SUA, platformele tehnologice beneficiaza in general de protectii privind raspunderea pentru continutul utilizatorilor, in baza Sectiunii 230 din Legea privind Decenta in Comunicatii. Totusi, chiar unul dintre co-autorii legii din 1996 a indicat public ca regula nu ar trebui sa acopere rezultatele proprii de inteligenta artificiala ale unei companii, argumentand ca se impune responsabilizare atunci cand produsul genereaza continut. In acest cadru, Grok devine un test: este continut de la utilizator, sau un rezultat al companiei, cu alta raspundere atasata?

In plus, unele rezultate ar putea intra sub incidenta unei legi federale recente, cunoscuta ca Take It Down, care ofera Departamentului de Justitie autoritatea de a incerca impunerea de sanctiuni penale pentru publicarea de imagini intime neconsensuale, inclusiv atunci cand sunt facilitate de AI. Conform informatiilor prezentate, platformele care nu elimina rapid continutul semnalat ar putea fi vizate si de actiuni ale autoritatii de protectie a consumatorilor, cu un calendar de aplicare mentionat ca incepand de la mijlocul lunii mai. In lipsa unei actiuni federale clare, procurorii generali ai statelor ar putea investiga fapte care afecteaza locuitorii, iar in California, reprezentantii departamentului de justitie au indicat ingrijorari profunde privind daunele provocate de chatboti si accentul pe protectia copiilor.

Pe fundal, administratia Trump si unii aliati republicani sunt descrisi ca impingand ideea de a limita capacitatea statelor de a-si aplica propriile reguli privind AI, ceea ce adauga o tensiune politica peste disputa juridica. Iar pentru Grok, fiecare zi fara corectii vizibile amplifica presiunea externa.

Dincolo de confruntarea dintre reglementatori, legi si companii, ramane intrebarea practica: ce bariere functioneaza in lumea reala atunci cand un instrument AI poate fi folosit pentru a victimiza. Cazul descris arata ca raspunsul nu mai poate fi doar o promisiune generica de moderare, ci are nevoie de masuri demonstrabile, auditabile si aplicate consecvent, mai ales cand sunt implicati copii sau imagini intime.

Concluzia este ca Grok se afla acum intr-o zona in care tehnologia, politica si dreptul se intalnesc brutal: fie apar rapid mecanisme de prevenire si eliminare care reduc riscurile, fie presiunea reglementarii si a anchetelor va creste, cu efecte care pot depasi cu mult o singura platforma.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.