Războiul dintre Israel și Iran declanșează un torent de dezinformări prin inteligență artificială

Autor: Denisa Miron, Colaborator

Publicat: 21-06-2025 10:09

Actualizat: 21-06-2025 13:09

Article thumbnail

Sursă foto: BBC

Un val de dezinformare a fost declanșat online de când Israelul a început atacurile asupra Iranului săptămâna trecută, zeci de postări revizuite de BBC Verify încercând să amplifice eficacitatea răspunsului Teheranului.

 

Torent de dezinformări prin inteligență artificială

Analiza noastră a descoperit o serie de videoclipuri - create cu ajutorul inteligenței artificiale - care se laudă cu capacitățile militare ale Iranului, alături de clipuri false care arată urmările atacurilor asupra țintelor israeliene. Cele trei videoclipuri false cele mai vizionate, găsite de BBC Verify, au acumulat împreună peste 100 de milioane de vizualizări pe mai multe platforme.

Conturile pro-israeliene au distribuit, de asemenea, dezinformări online, în principal prin recircularea unor înregistrări vechi de la proteste și adunări din Iran, susținând în mod fals că acestea arată o disidență crescândă față de guvern și sprijin în rândul iranienilor pentru campania militară a Israelului.

Israelul a lansat atacuri în Iran pe 13 iunie, ceea ce a dus la mai multe runde de atacuri cu rachete și drone iraniene asupra Israelului.

O organizație care analizează imagini open-source a descris volumul de dezinformare online ca fiind „uimitor” și a acuzat unii „cultivatori ai implicării” că încearcă să profite de pe urma conflictului prin distribuirea de conținut înșelător menit să atragă atenția online.

„Vedem totul, de la filmări fără legătură din Pakistan, la videoclipuri reciclate de la atacurile din octombrie 2024 - unele dintre ele au acumulat peste 20 de milioane de vizualizări - precum și clipuri din jocuri și conținut generat de inteligență artificială care sunt prezentate drept evenimente reale”, a scris Geoconfirmed, grupul de verificare online, pe X.

Anumite conturi au devenit „super-răspânditori” de dezinformare, fiind recompensate cu o creștere semnificativă a numărului de urmăritori. Un cont pro-iranian fără legături evidente cu autoritățile din Teheran - Daily Iran Military - și-a înregistrat o creștere a numărului de urmăritori pe X de la puțin peste 700.000 pe 13 iunie la 1,4 milioane pe 19 iunie, o creștere de 85% în mai puțin de o săptămână.

Este unul dintre multele conturi obscure care au apărut recent în feed-urile oamenilor. Toate au bife albastre, sunt prolifice în mesaje și au postat în mod repetat dezinformări. Deoarece unele folosesc nume aparent oficiale, unii oameni au presupus că sunt conturi autentice, dar nu este clar cine administrează de fapt profilurile.

Torentul de dezinformare a marcat „prima dată când am văzut inteligența artificială generativă utilizată la scară largă în timpul unui conflict”, a declarat pentru BBC Verify Emmanuelle Saliba, șefa investigațiilor din cadrul grupului de analiști Get Real.

Relatările verificate de BBC Verify au distribuit frecvent imagini generate de inteligența artificială care par să încerce să exagereze succesul răspunsului Iranului la atacurile Israelului. O imagine, care are 27 de milioane de vizualizări, înfățișa zeci de rachete căzând asupra orașului Tel Aviv.

Un alt videoclip ar fi arătat un atac cu rachete asupra unei clădiri din orașul israelian, târziu în noapte. Dna Saliba a spus că videoclipurile prezintă adesea atacuri nocturne, ceea ce le face deosebit de dificil de verificat.

Falsurile legate de inteligența artificială s-au concentrat, de asemenea, pe afirmațiile privind distrugerea avioanelor de vânătoare israeliene F-35, un avion de ultimă generație fabricat în SUA, capabil să lovească ținte terestre și aeriene. Dacă barajul de înregistrări ar fi fost real, Iranul ar fi distrus 15% din flota israeliană de avioane de vânătoare, a declarat pentru BBC Verify Lisa Kaplan, CEO al grupului de analiști Alethea. Încă nu am autentificat nicio înregistrare cu doborârea avioanelor F-35.

O postare distribuită pe scară largă susținea că arată un avion avariat după ce a fost doborât în ​​deșertul iranian. Cu toate acestea, semnele manipulării de către inteligența artificială erau evidente: civilii din jurul avionului aveau aceeași dimensiune ca vehiculele din apropiere, iar nisipul nu prezenta semne de impact.

content-image

Un alt videoclip cu 21,1 milioane de vizualizări pe TikTok susținea că arată un F-35 israelian doborât de apărarea aeriană, dar filmările proveneau de fapt dintr-un joc video simulator de zbor. TikTok a eliminat filmările după ce a fost contactat de BBC Verify.

Dna Kaplan a declarat că o parte din atenția acordată avioanelor F-35 este determinată de o rețea de conturi pe care Alethea le-a asociat anterior cu operațiuni de influență rusească.

Ea a menționat că operațiunile de influență rusești și-au schimbat recent cursul, de la încercarea de a submina sprijinul pentru războiul din Ucraina la semănarea îndoielilor cu privire la capacitatea armamentului occidental - în special american.

„Rusia nu are cu adevărat un răspuns la F-35. Deci ce poate face? Poate încerca să submineze sprijinul pentru acesta în anumite țări”, a spus dna Kaplan.

 

Dezinformarea este răspândită și prin intermediul unor relatări bine-cunoscute care au intervenit anterior în războiul dintre Israel și Gaza și în alte conflicte.

Motivațiile lor variază, dar experții au spus că unii ar putea încerca să monetizeze conflictul, unele platforme importante de socializare oferind plăți conturilor care obțin un număr mare de vizualizări.

În schimb, postările pro-israeliene s-au concentrat în mare măsură pe sugestiile conform cărora guvernul iranian se confruntă cu o disidență tot mai mare, pe măsură ce atacurile continuă.

Printre acestea se numără și un videoclip generat de inteligență artificială, distribuit pe scară largă, care pretinde în mod fals că îi arată pe iranieni scandând „iubim Israelul” pe străzile din Teheran.

Cu toate acestea, în ultimele zile - și pe măsură ce speculațiile despre atacurile americane asupra siturilor nucleare iraniene cresc - unele conturi au început să posteze imagini generate de inteligența artificială cu bombardiere B-2 deasupra Teheranului. B-2 a atras o atenție deosebită de la începutul atacurilor Israelului asupra Iranului, deoarece este singura aeronavă capabilă să efectueze eficient un atac asupra siturilor nucleare subterane ale Iranului .

Surse oficiale din Iran și Israel au distribuit unele dintre imaginile false. Presa de stat din Teheran a distribuit imagini false ale unor atacuri și o imagine generată de inteligența artificială a unui avion F-35 doborât, în timp ce o postare distribuită de Forțele de Apărare ale Israelului (IDF) a primit o notă comunitară pe X pentru utilizarea unor imagini vechi, fără legătură cu acestea, ale unor baraje de rachete.

O mare parte din dezinformarea analizată de BBC Verify a fost distribuită pe X, utilizatorii apelând frecvent la chatbot-ul cu inteligență artificială al platformei - Grok - pentru a stabili veridicitatea postărilor.

Cu toate acestea, în unele cazuri, Grok a insistat că videoclipurile cu inteligență artificială erau reale. Un astfel de videoclip arăta un flux nesfârșit de camioane care transportau rachete balistice ieșind dintr-un complex montan. Printre semnele revelatoare ale conținutului cu inteligență artificială se numărau pietrele din videoclip care se mișcau de la sine, a spus dna Saliba.

content-image

Însă, ca răspuns la utilizatorii X, Grok a insistat în repetate rânduri că videoclipul era real și a citat rapoarte de la publicații media precum Newsweek și Reuters. „Verificați știrile de încredere pentru claritate”, a concluzionat chatbot-ul în mai multe mesaje.

 

X nu a răspuns solicitării BBC Verify de a comenta acțiunile chatbot-ului.

Multe videoclipuri au apărut și pe TikTok și Instagram. Într-o declarație pentru BBC Verify, TikTok a declarat că aplică în mod proactiv regulile comunității „care interzic conținutul inexact, înșelător sau fals” și că lucrează cu verificatori independenți de informații pentru a „verifica conținutul înșelător”.

 

Proprietarul Instagram, Meta, nu a răspuns solicitării de a comenta.

Deși motivațiile celor care creează falsuri online variază, multe sunt împărtășite de utilizatorii obișnuiți ai rețelelor de socializare.

Matthew Facciani, cercetător la Universitatea Notre Dame, a sugerat că dezinformarea se poate răspândi mai rapid online atunci când oamenii se confruntă cu alegeri binare, cum ar fi cele generate de conflict și politică.

„Asta vorbește despre problema socială și psihologică mai amplă a oamenilor care doresc să distribuie din nou lucruri dacă acest lucru se aliniază cu identitatea lor politică și, în general, conținutul emoțional senzațional se va răspândi mai repede online.”

Google News
Comentează
Articole Similare
Parteneri