Subscription modal logo Premium

Abonează-te pentru experiența stiripesurse.ro Premium!

  • cea mai rapidă sursă de informații și știri
  • experiența premium fără reclame sau întreruperi
  • în fiecare zi,cele mai noi știri, exclusivități și breaking news
DESCARCĂ APLICAȚIA: iTunes app Android app on Google Play
NOU! Citește stiripesurse.ro
 

Nu e glumă: inteligența artificială ar putea prelua omenirea - cei care au fondat ChatGPT trag un semnal de alarmă

8ways.ch
inteligenta artificiala

Echipa din spatele ChatGPT susține că este nevoie de un echivalent al unui organism de supraveghere atomică pentru a se proteja împotriva riscurilor pe care le prezintă inteligența artificială "superinteligentă", informează The Guardian.

Echipa din spatele ChatGPT spune că este nevoie de un echivalent al unui „câine de pază atomic” pentru a se proteja împotriva riscurilor AI "superinteligente”. Într-o scurtă notă publicată pe site-ul web al companiei, cofondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, solicită ca un organism internațional de reglementare să înceapă să lucreze la modul în care să "inspecteze sistemele, să solicite audituri, să testeze conformitatea cu standardele de siguranță [și] să impună restricții privind gradele de implementare și nivelurile de securitate" pentru a reduce "riscul existențial" pe care l-ar putea reprezenta astfel de sisteme.

„Superinteligența va fi mai puternică decât alte tehnologii cu care omenirea a trebuit să se confrunte în trecut”

"Este de conceput că, în următorii 10 ani, sistemele de inteligență artificială vor depăși nivelul de îndemânare al experților în majoritatea domeniilor și vor desfășura la fel de multe activități productive ca una dintre cele mai mari corporații de astăzi", scriu ei. "Atât în ceea ce privește potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care omenirea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper; dar trebuie să gestionăm riscurile pentru a ajunge acolo. Având în vedere posibilitatea unui risc existențial, nu putem fi doar reactivi."

Plan pe termen scurt

Pe termen scurt, cei trei fac apel la "un anumit grad de coordonare" între companiile care lucrează în domeniul cercetării de vârf în domeniul inteligenței artificiale, pentru a se asigura că dezvoltarea unor modele din ce în ce mai puternice se integrează fără probleme în societate, acordând în același timp prioritate siguranței. Această coordonare ar putea fi realizată, de exemplu, printr-un proiect condus de guvern sau printr-un acord colectiv pentru a limita creșterea capacității de inteligență artificială.

Cercetătorii au avertizat de zeci de ani asupra riscurilor potențiale ale superinteligenței, dar, pe măsură ce dezvoltarea IA a luat viteză, aceste riscuri au devenit mai concrete. Centrul pentru siguranța inteligenței artificiale (CAIS), cu sediul în SUA, care se ocupă de "reducerea riscurilor la scară societală generate de inteligența artificială", descrie opt categorii de riscuri "catastrofale" și "existențiale" pe care le-ar putea prezenta dezvoltarea IA.

Liderii OpenAI spun că aceste riscuri înseamnă că "oamenii din întreaga lume ar trebui să decidă în mod democratic limitele și valorile implicite ale sistemelor de inteligență artificială", dar admit că "nu știm încă cum să concepem un astfel de mecanism". Cu toate acestea, ei spun că dezvoltarea continuă a unor sisteme puternice merită riscul.

ACTIVEAZĂ NOTIFICĂRILE

Fii la curent cu cele mai noi stiri.

Urmărește stiripesurse.ro pe Facebook

×
NEWSLETTER

Nu uitaţi să daţi "Like". În felul acesta nu veţi rata cele mai importante ştiri.