Tentativele de escrocherie realizate cu ajutorul videoclipurilor generate de inteligența artificială au crescut cu 3.000% în doar doi ani. Milioane de oameni cad în capcana escrocilor în condițiile în care înșelăciunea digitală a atins un nivel fără precedent. Experții ne spun cum să ne apărăm.
Videoclipurile deepfake au crescut de la o jumătate de milion în 2023 la peste opt milioane în acest an, tentativele de escrocherie crescând cu 3.000% în doar doi ani, potrivit Express care citează firma de securitate cibernetică DeepStrike. Experții spun că lumea a intrat într-o nouă eră a conținutului video online, care este periculos. Videoclipurile generate de inteligența artificială se răspândesc rapid pe rețelele de socializare, afectând milioane de utilizatori, scrie Mediafax.
Realitatea, tot mai greu de distins
Un expert în tehnologie a emis un avertisment cu privire la instrumentele video ultra-realiste bazate pe inteligență artificială disponibile pe platforme precum Sora 2, care au fost exploatate de escroci pentru a alimenta un val de escrocherii deepfake online
Experții au dezvăluit că devine din ce în ce mai dificil să se facă diferența între ceea ce este real și ceea ce nu este, deoarece oamenii pot detecta acum deepfake-uri de înaltă calitate doar o dată din patru, ceea ce înseamnă că milioane de oameni pot fi înșelați fără să-și dea seama.
O industrie criminală de miliarde de dolari
Ceea ce a început ca o distracție pe internet, cu deepfake-uri și videoclipuri generate de inteligență artificială, s-a transformat rapid într-o industrie criminală de miliarde de dolari. Escrocii folosesc inteligența artificială pentru a clona voci, fețe și emoții, furând bani și răspândind știri false.
Apelurile video deepfake în timp real vor deveni și ele mult mai frecvente, mai avertizează specialiștii. Escrocii se pot prezenta drept persoane dragi sau șefi folosind voci și gesturi clonate. Acest lucru este posibil datorită instrumentelor disponibile pe platforme precum Sora, o aplicație text-video capabilă să creeze videoclipuri realiste în mai puțin de un minut.
Cum pot fi recunoscute videoclipurile generate de AI?
Experții în tehnologie de la compania de software Outplayed au dezvăluit câteva semne cheie pentru a identifica un videoclip generat de inteligență artificială.
Acestea includ următoarele lucruri:
„Clipit și ochi: Subiecții clipesc mai puțin sau își mișcă ochii în modele robotice.
Mâini și degete: Atenție la degete deformate sau îmbinate - inteligența artificială încă se chinuie cu mâinile.
Erori de iluminare: Umbrele cad în direcții ciudate sau fețele par prea luminoase.
Apă și reflexii: Lichidul pare „prea perfect” sau nenatural de imobil.
Probleme de sincronizare a buzelor: Buzele nu se potrivesc perfect cu cuvintele - în special la sunetele „p” sau „b”.
Piele netedă: Fețele inteligenței artificiale par plastice, fără pori sau textură.
Fundaluri cu erori: Obiectele deformate sau marginile pâlpâitoare dau de gol.
Mișcarea țesăturilor: Hainele se mișcă rigid în vânt.
Tranziții de scenă: Sărituri sau „sclipiri” stângace la mijlocul cadrului sugerează editarea.
Context ciudat: Persoane care apar în afara personajului sau în locuri ciudate.
Presimțire: Dacă pare ciudat - probabil că este.”
„Odinioară studiourile de la Hollywood aveau nevoie de săptămâni pentru a produce ceva ce în prezent poate fi realizat rapid, de oricine are un laptop. Videoclipurile de la cele mai recente instrumente de inteligență artificială, cum ar fi Sora 2, sunt aproape imposibil de descoperit și acest lucru este terifiant în cazurile greșite în care ar putea fi utilizat”, a spus expertul.
Escrocii mizează pe emoții
Persoanele cad victime ale fraudelor economice și romantice.
„Oamenii au încredere în dovezile video. De aceea intrăm într-o nouă eră periculoasă, cu deepfake-uri în creștere rapidă. Ele ocolesc logica și merg direct la emoție”, a explicat specialistul.
Sora a depășit un milion de descărcări, utilizatorii generând clipuri scurte care stârnesc frecvent dezbateri. Escrocii au folosit inclusiv imaginea unor vedete precum Jake Paul, Michael Jackson și Martin Luther King Jr..






























Comentează