Gemini are o problemă majoră de securitate. Nu este deloc surprinzător, având în vedere că am văzut cercetători în domeniul securității preluând controlul asupra unei case inteligente folosind invitații Google Calendar care deturnează AI-ul folosind cod sau text ascuns. Ei bine, se pare că una dintre cele mai mari probleme noi are legătură cu faptul că atacatorii au capacitatea de a ascunde încărcături maligne în ASCII, făcându-le detectabile de LLM-uri, dar nu și de utilizatori, informează bgr.com.
Configurația este similară cu cea pe care am văzut-o deja, permițând exploatarea Gemini prin profitarea de faptul că poate înregistra text pe care un utilizator uman s-ar putea să nu-l observe. Acum, merită menționat că aceasta este doar o problemă a Gemini. Ea apare și în DeepSeek și Grok. Cu toate acestea, ChatGPT, Copilot și Claude arată rezistență la această problemă, deși ChatGPT are propriile probleme de securitate cu care trebuie să se confrunte.
Problema a fost descoperită de FireTail, o companie de securitate cibernetică care a testat Gemini și toate celelalte chatbot-uri AI menționate mai sus pentru a vedea dacă o tehnică cunoscută sub numele de ASCII smuggling (sau Unicode character smuggling) ar funcționa.
Când a raportat problema către Google, FireTail a menționat că compania a spus că problema nu este de fapt un bug de securitate. De fapt, Google consideră că atacul „poate duce doar la inginerie socială” și că luarea de măsuri „nu ar face utilizatorii noștri mai puțin vulnerabili la astfel de atacuri”.
Google afirmă că nu este o eroare de securitate
Deși vulnerabilitatea Gemini la ASCII smuggling s-ar putea să nu fie, din punct de vedere tehnic, o eroare de securitate, faptul că Google respinge complet problema este îngrijorător, mai ales că Gemini devine din ce în ce mai răspândit în produsele și serviciile Google. Gemini poate fi deja conectat la căsuța de e-mail Gmail, ceea ce ar putea permite atacurilor de inginerie socială să trimită comenzi către AI fără ca utilizatorul să știe.
Desigur, acest lucru ridică alte întrebări cu privire la modul în care ar putea afecta Gemini în viitor. Având în vedere că ChatGPT pune cumpărăturile în prim-plan, este logic ca Google să facă ceva similar.
Dar cercetările care stau la baza descoperirii de la FireTail sugerează că această vulnerabilitate ar putea permite persoanelor rău intenționate să introducă linkuri către site-uri rău intenționate în rezultatele Gemini folosind instrucțiuni invizibile, lucru pe care cercetătorul în securitate a demonstrat că este posibil în exemplul său.
Acest lucru este cu siguranță îngrijorător și va fi interesant de văzut dacă Google va continua să adopte această poziție, mai ales când alții, precum Amazon, au publicat articole extinse pe blog despre această problemă.
Inginerii de securitate ai Amazon notează chiar că „măsurile de protecție ar trebui considerate componente fundamentale pentru aplicațiile critice de IA generativă, mai degrabă decât adăugiri opționale”.
Comentează