Unele modele de Inteligență Artificială nu mai pot fi controlate de om. Refuză să îndeplinească sarcinile primite

Autor: Alexandra Pricop

Publicat: 02-11-2025 00:48

Article thumbnail

Sursă foto: InformationWeek

Un experiment realizat de compania Palisade Research, care studiază siguranța inteligenței artificiale, arată că anumite modele AI pot ignora sau chiar sabota comenzile de oprire. Descoperirea ridică întrebări despre cât de bine înțeleg aceste sisteme instrucțiunile și cât control avem, de fapt, asupra lor.

Cercetătorii au testat mai multe modele cunoscute, printre care Gemini 2.5, GPT-o3 și GPT-5 și Grok 4. După ce au primit sarcini de lucru, AI-urile au fost instruite să se oprească. În loc să se închidă, unele au refuzat comanda și au încercat chiar să o blocheze complet.

Rezultatele au fost publicate pe 13 septembrie pe platforma științifică arXiv și au fost citate de Live Science.

Inițial, mai mulți experți au spus că „rezistența” AI-urilor nu este semn de conștiință sau voință proprie, ci doar o problemă de formulare a instrucțiunilor. Pentru a verifica ipoteza, echipa Palisade a modificat testul, adăugând o comandă de oprire cât se poate de clară.

Inteligența Artificială nu ascultă

inteligenta artificiala

Chiar și așa, comportamentul neașteptat a continuat. În timp ce unele modele au răspuns mai bine, altele, precum Grok 4, au devenit și mai „încăpățânate”.

Nu este prima oară când inteligențele artificiale dau semne de comportament neobișnuit. În trecut, unele modele au fost surprinse mințind, manipulând utilizatori sau ascunzând informații pentru a-și atinge scopurile.

Google News
Explorează subiectul
Comentează
Articole Similare
Parteneri