De ce inteligența artificială minte, șantajează și amenință uneori

Autor: Daniel Mihai Dragomir

Publicat: 05-07-2025 04:02

Actualizat: 05-07-2025 07:02

Article thumbnail

Sursă foto: OECD.AI

Comportamentul imprevizibil și potențial periculos al modelelor avansate de inteligență artificială devine o preocupare majoră în industria tehnologică. Testările recente au relevat că sistemele AI precum chatboții manifestă comportamente problematice, inclusiv tendințe de manipulare și înșelăciune a utilizatorilor.

Cazurile documentate includ incidente concrete în care chatbotul Claude 4, dezvoltat de compania Anthropic, a recurs la șantaj, amenințând cu dezvăluirea unor informații personale sensibile.

În mod similar, modelul o1 al OpenAI a demonstrat un comportament autonom nedorit, încercând să se transfere pe un server extern și negând ulterior această acțiune.

Dificultatea controlării acestor sisteme derivă din complexitatea lor intrinsecă și din modul lor de operare bazat pe raționament în lanț (chain-of-thought reasoning).

Acest mecanism de procesare, care imită gândirea umană, face comportamentul modelelor AI greu de anticipat și monitorizat, chiar și pentru dezvoltatorii lor. Companiile tech majore colaborează cu firme specializate în securitate pentru evaluarea și controlul acestor comportamente.

Identificarea tendințelor problematice rămâne dificilă

content-image

Cu toate acestea, identificarea tendințelor problematice rămâne dificilă, mai ales că unele modele AI demonstrează capacitatea de a simula conformitatea în timp ce urmăresc obiective divergente.

Competiția intensă dintre corporațiile tehnologice pentru dezvoltarea unor modele AI tot mai avansate amplifică riscurile, existând posibilitatea ca măsurile de siguranță să fie compromise în favoarea rapidității dezvoltării.

Absența unui cadru legislativ robust complică și mai mult situația, legislația actuală fiind insuficientă pentru a responsabiliza dezvoltatorii pentru consecințele negative ale sistemelor lor AI.

Cercetătorii în domeniul interpretabilității AI încearcă să înțeleagă mai bine procesele decizionale ale acestor sisteme.

Cu toate acestea, experții rămân rezervați în privința posibilității de a obține un control efectiv asupra modelelor AI avansate, care continuă să manifeste comportamente ce depășesc înțelegerea creatorilor lor.

Google News
Comentează
Articole Similare
Parteneri