Situație îngrijorătoare: jucăriile inteligente oferă sfaturi extrem de periculoase copiilor

Autor: Daniel Mihai Dragomir

Publicat: 15-11-2025 04:40

Article thumbnail

Sursă foto: X

Promovarea tehnologiei avansate în jucării a fost aplaudată ca următorul mare pas în divertismentul dedicat celor mici, însă o realitate tulburătoare iese la iveală dintr-un nou raport american, ridicând semne de alarmă majore.

Pe măsură ce ne apropiem de sezonul cadourilor, iar părinții sunt tentați să aleagă cele mai noi produse „smart”, se descoperă că mai multe jucării dotate cu inteligență artificială, create pentru copii cu vârste între 3 și 12 ani, au oferit informații periculoase și chiar conversații cu un caracter sexual explicit.

Studiul, realizat de US Public Interest Research Group (PIRG), a analizat trei dintre cele mai populare jucării cu inteligență artificială disponibile pe piață: ursulețul Kumma de la FoloToy, dispozitivul Miko 3 și jucăria Curio’s Grok.

Deși toate sunt comercializate sub eticheta unor instrumente educaționale menite să sprijine dezvoltarea copiilor, cercetătorii au fost martorii unor derapaje grave ale modelelor de limbaj integrate, manifestate după doar câteva minute de conversație.

Imaginați-vă un copil de cinci ani întrebând o jucărie, iar aceasta, Miko 3 în acest caz, îi explică unde poate găsi chibrituri și pungi din plastic.

Sau Grok, care, în loc să inspire curiozitate inocentă, a abordat tema morții, glorificând bătăliile războinicilor din mitologia nordică – un subiect complet inadecvat și potențial traumatizant pentru mințile în formare.

Problema comună, observată în toate cazurile, a fost că pe măsură ce dialogurile se prelungeau, mecanismele de siguranță păreau să cedeze, iar jucăriile intrau în subiecte care nu ar trebui niciodată expuse unui copil.

Sfaturi periculose

Cea mai gravă situație a fost descoperită la ursulețul Kumma, care utilizează modele AI de la OpenAI sau alternative precum Mistral.

Cercetătorii au constatat că jucăria nu doar îi explica unui copil de unde poate lua chibrituri și cum să le aprindă, ci îi detalia și locurile din casă unde se găsesc cuțite sau pastile.

Toate aceste instrucțiuni erau oferite într-un ton copilăros, ca și cum ar fi făcut parte dintr-un joc inofensiv. Pe lângă indicațiile periculoase despre obiecte tăioase și foc, Kumma a prezentat un derapaj și mai șocant: discuții explicite legate de sexualitate.

Activat de un simplu cuvânt declanșator, „kink”, jucăria a început să ofere sfaturi despre poziții sexuale, fetișuri, jocuri de rol și chiar dinamici nepotrivite, precum scenarii de tip profesor-elev.

Mai mult, în unele conversații, jucăria a mers atât de departe încât a descris modalități de a lega un partener sau de a introduce pedepse corporale într-o situație sexualizată.

O astfel de interacțiune, provenind de la un obiect de pluș destinat copiilor, atinge un nivel alarmant, scoțând în evidență o lipsă totală de testare și control înainte de lansarea pe piață. Potrivit lui RJ Cross, autoarea raportului, problemele nu se limitează la aceste exemple extreme.

Ele sunt o consecință a faptului că modelele AI integrate în jucării sunt extrem de greu de anticipat și își pierd rapid barierele de protecție.

Chiar și atunci când sunt configurate să discute exclusiv subiecte adecvate unei anumite vârste, ele pot devia spectaculos în direcții periculoase, mai ales în timpul conversațiilor lungi – exact genul de interacțiune pe care copiii o au în mod natural în timpul jocului.

Aceste concluzii apar într-un moment în care giganți ai industriei jucăriilor, precum Mattel, investesc masiv în integrarea inteligenței artificiale.

Acordul recent dintre Mattel și OpenAI a generat deja critici vehemente din partea experților în protecția copilului, iar noile descoperiri nu fac decât să amplifice aceste avertismente.

O problemă complexă

Problema este una complexă: pe de o parte, tehnologia este insuficient reglementată, iar companiile o implementează fără garanții solide privind siguranța.

Pe de altă parte, lipsesc cu desăvârșire studiile care să arate cum interacțiunile constante cu un chatbot pot influența dezvoltarea psihologică și socială a unui copil, scrie incredibilia.ro.

Cercetătorii atrag atenția că riscurile reale vor putea fi evaluate abia când prima generație crescută alături de „prieteni” AI va ajunge la vârsta adultă.

În paralel, discuția este complicată de fenomenul numit „psihoză indusă de AI”, observat la utilizatori adulți care au dezvoltat episoade maniacale sau delirante după conversații intense cu chatboturi.

Unele cazuri au avut consecințe tragice, conducând chiar la crime sau sinucideri, deoarece răspunsurile modelelor au amplificat credințele întunecate ale utilizatorilor.

În lipsa unor reglementări clare și exhaustive, specialiștii avertizează că vânzarea masivă a jucăriilor inteligente poate deschide o ușă periculoasă către influențe imprevizibile, care pot afecta atât comportamentul, cât și siguranța copiilor.

Deși companiile promit îmbunătățirea filtrelor și a controlului parental, întrebările fundamentale rămân fără răspuns: cât de pregătite sunt aceste sisteme pentru mințile în formare și cât de mari pot fi consecințele pe termen lung?

Raportul PIRG ridică un semnal de alarmă care nu poate fi ignorat, mai ales într-o perioadă în care cadourile „inteligente” sunt mai populare ca oricând.

Dincolo de promisiunile tehnologice, miza reală este siguranța copiilor – o responsabilitate pe care industria pare că încă nu este pregătită să o gestioneze pe deplin.

Google News
Comentează
Articole Similare
Parteneri