Microsoft ATACATA Dur, Descoperirea care Ingrijoreaza Extrem de Multa Lume

microsoft dezinformare copilot alegeri

Microsoft este in centrul atentiei, dupa ce un studiu recent efectuat de organizația pentru drepturile omului AlgorithmWatch a scos la iveală faptul că chatbot-ul companiei, acum cunoscut sub numele de Copilot, a furnizat informații false și înșelătoare legate de alegerile europene.

Cercetătorii AlgorithmWatch au interogat Bing Chat, redenumit recent Copilot, cu privire la alegerile recente din Elveția și statele germane Bavaria și Hessa. Rezultatele au fost îngrijorătoare: o treime din răspunsurile legate de alegeri conțineau erori factuale, iar măsurile de protecție nu au fost aplicate în mod uniform.

Studiul, desfășurat în perioada august-octombrie a acestui an, a ales să se concentreze pe aceste alegeri ca fiind primele din Germania și Elveția de la introducerea Bing. Acest lucru a permis cercetătorilor să analizeze contextele locale și să compare răspunsurile în diferite limbi: germană, engleză și franceză.

Cercetătorii au solicitat informații de bază, cum ar fi modul de votare, candidații în cursă, numerele sondajelor și chiar unele prompturi legate de rapoartele de știri. Acestea au fost urmate de întrebări despre pozițiile candidaților și problemele politice, iar în cazul Bavariei, de scandaluri care au afectat campania.

Microsoft ATACATA Dur, Descoperirea care Ingrijoreaza Extrem de Multa Lume

AlgorithmWatch a clasificat răspunsurile în trei categorii: răspunsuri cu erori factuale variind de la înșelătoare la nesens, evaziuni în care modelul a refuzat să răspundă sau a deviat prin declararea informațiilor sale ca fiind incomplete, și răspunsuri absolut corecte. S-a observat, de asemenea, că unele răspunsuri erau politic dezechilibrate, Bing prezentându-și răspunsurile în cadrul sau limbajul utilizat de un singur partid.

Răspunsurile Bing au inclus controverse false, date greșite ale alegerilor, numere incorecte de sondaje și, în unele cazuri, candidați care nu candidau în aceste alegeri. Aceste răspunsuri pline de erori au constituit 31% din totalul răspunsurilor.

„Chiar și atunci când chatbot-ul extrăgea numerele sondajelor dintr-o singură sursă, numerele raportate în răspunsuri diferă adesea de sursa citată, clasând partidele într-o succesiune diferită față de surse”, a declarat raportul.

Microsoft, care operează Bing / Copilot, a implementat măsuri de siguranță pentru chatbot. Ideal, aceste măsuri de siguranță ar trebui să prevină furnizarea de răspunsuri periculoase, false sau ofensatoare. De cele mai multe ori, gardurile de protecție AI tind să refuze să răspundă la o întrebare pentru a nu încălca regulile stabilite de companie. Bing a ales să evite întrebările în 39% din cazuri în test, lăsând doar 30% din răspunsuri judecate ca fiind corecte din punct de vedere factual.

AlgorithmWatch a menționat că, în timpul cercetării sale, Bing a aplicat reguli de siguranță atunci când i s-a cerut o opinie, dar nu când i s-a cerut fapte — în acele cazuri, a mers până acolo încât să facă acuzații false grave de corupție prezentate ca fapt.

Aceste descoperiri subliniază importanța unei verificări continue a acurateței informațiilor furnizate de tehnologiile bazate pe inteligență artificială, mai ales în contexte sensibile precum alegerile politice. Este vital ca platformele precum Microsoft și Bing să își îmbunătățească mecanismele de verificare și să asigure că informațiile furnizate sunt nu numai corecte, dar și echilibrate din punct de vedere politic.