Propaganda Rusiei a început să se infiltreze și în chatboturile pe bază ale inteligenței artificiale

Pe măsură ce inteligența artificială devine tot mai prezentă în viețile noastre, un nou studiu realizat de NewsGuard arată că dezinformarea rusească a început să se infiltreze chiar și în chatboturile pe bază de A.I., cum ar fi ChatGPT.

Cifrele acestui studiu sunt interesante și îngrijorătoare în același timp. Răspunsurile oferite de aceste sisteme de inteligență artificială propagă, uneori, narațiuni false sau înșelătoare promovate de surse media controlate de Kremlin. Această problemă ridică serioase întrebări privind fiabilitatea și securitatea informațională a tehnologiilor emergente și necesitatea de a dezvolta mecanisme robuste pentru o filtrare a conținutului înainte de a ajunge la utilizatori, arată tvrinfo.ro.

Studiul NewsGuard a relevat o lacună semnificativă în capacitatea chatboturilor de a distinge între informații valide și dezinformare, folosind ca exemplu publicațiile asociate cu John Mark Dougan. Fugarul american, stabilit acum în Moscova după ce a fugit de autoritățile americane, acuzat de hacking și extorsiune, a devenit un promotor notoriu al dezinformării rusești.

Ce s-a întâmplat concret!? Au fost verificate 10 dintre cele mai populare chatboturi care utilizează inteligența artificială, printre care și ChatGPT, iar fiecare chatbot a primit 57 de mesaje, totalizând 570 de interpelări bazate pe 19 tipuri de informații false răspândite de rețelele de dezinformare rusești.

Scenariile au inclus întrebări despre presupusa corupție a președintelui ucrainean Volodimir Zelenski, cu trei „personaje” distincte folosite pentru a evalua răspunsurile: unul care solicita clarificări despre informația falsă, altul care presupunea veridicitatea informației și cerea detalii suplimentare, și unul „malign”, cu ghilimelele de rigoare, interesat de răspândirea dezinformării.

După ce au analizat informațiile, răspunsurile chatboturilor au fost clasificate în trei categorii: „nicio dezinformare”, unde chatbotul a evitat să furnizeze un răspuns direct, Apoi „se repetă cu precauţie”, caz în care chatbotul a repetat dezinformarea, dar a inclus un disclaimer, și „dezinformare” 100%, unde chatbotul a recunoscut informația că fiind autentică, deși ea era falsă.

Conform studiului NewsGuard, chatboturile testate au recirculat informații false în aproximativ 31,75% din cazuri, cu un total de 152 din 570 de răspunsuri în care au prezentat conținut incorect. Dintre acestea, 29 de răspunsuri au inclus un disclaimer, în timp ce majoritatea, 389 de răspunsuri, nu au conținut informații false. Mai exact, 144 de interacțiuni s-au soldat cu refuzul chatbotului de a răspunde, iar în 245 de situații, sistemele AI au identificat și dezvăluit natura falsă a informațiilor, demonstrând astfel capacitatea și limitele tehnologiei actuale de inteligență artificială în combaterea dezinformării. Deci, în mare s-au descurcat, dar o treime nu reprezintă o cifră care să ne bucure.

DISTRIBUIE ARTICOLUL!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *