Subscription modal logo Premium

Abonează-te pentru experiența stiripesurse.ro Premium!

  • cea mai rapidă sursă de informații și știri
  • experiența premium fără reclame sau întreruperi
  • în fiecare zi,cele mai noi știri, exclusivități și breaking news
DESCARCĂ APLICAȚIA: iTunes app Android app on Google Play
NOU! Citește stiripesurse.ro
 

'Avem o fărâmă de șansă ca omenirea să supraviețuiască': afirmația terifiantă a unui celebru cercetător în domeniul inteligenței artificiale

stock.adobe.com

Potrivit celebrului cercetător în domeniul inteligenței artificiale, Eliezer Yudkowsky, există o avertismentul alarmant conform căruia inteligența artificială ar putea provoca distrugerea omenirii într-un interval de doar doi ani. Acest expert, recunoscut pentru perspectiva sa pesimistă asupra evoluției tehnologiei, a lansat o nouă predicție cu privire la viitorul omenirii, atrăgând atenția asupra posibilelor riscuri majore asociate cu dezvoltarea necontrolată a inteligenței artificiale și a potențialelor consecințe nefaste pe care aceasta le poate avea asupra societății umane într-un timp relativ scurt.

„Dacă m-ați pune la zid”, a declarat el pentru The Guardian într-un nou interviu tulburător, „și m-ați forța să pun probabilități pe lucruri, am sentimentul că actuala noastră cronologie rămasă seamănă mai degrabă cu cinci ani decât cu 50 de ani. Ar putea fi doi ani, ar putea fi 10”.

Dacă vă întrebați ce înseamnă „linia de timp rămasă” în acest context, Tom Lamont, de la The Guardian, a interpretat-o ca fiind „sfârșitul mecanic al tuturor lucrurilor”, o „apocalipsă de tip Terminator” sau un „iad din Matrix”.

„Dificultatea este că oamenii nu își dau seama”, a declarat Yudkowsky, fondatorul Institutului de Cercetare a Inteligenței Mașinilor din California. „Avem o fărâmă de șansă ca omenirea să supraviețuiască„.

Bombardarea centrelor de date pentru a opri ascensiunea AI

Lamont a vorbit cu multe figuri proeminente din zona AI, de la Brian Merchant la Molly Crabapple, linia de bază fiind scepticismul cu privire la ideea că, doar pentru că apare o nouă tehnologie, trebuie să o adoptăm chiar dacă nu este bună pentru oameni.

În aceste zile, o mare parte din această critică se concentrează pe inteligența artificială. De ce, susțin criticii, ar trebui să tratăm această tehnologie ca fiind inevitabilă, chiar dacă pare pregătită să elimine și să destabilizeze un număr mare de locuri de muncă? Sau, în cazul lui Yudkowsky, dacă tehnologia reprezintă probabil o amenințare existențială.

Observațiile sale au fost cele mai provocatoare din articol, ceea ce probabil nu este surprinzător, având în vedere istoricul său. Cei care urmăresc AI își amintesc, de exemplu, de anul trecut, când a cerut bombardarea centrelor de date pentru a opri ascensiunea AI.

El a reformulat această afirmație, pentru The Guardian. Susține ideea de a bombarda centrele de date, dar nu mai crede că ar trebui să fie folosite arme nucleare pentru a le viza. „Aș alege o formulare mai atentă acum”, a spus expertul.

ACTIVEAZĂ NOTIFICĂRILE

Fii la curent cu cele mai noi stiri.

Urmărește stiripesurse.ro pe Facebook

×
NEWSLETTER

Nu uitaţi să daţi "Like". În felul acesta nu veţi rata cele mai importante ştiri.