Subscription modal logo Premium

Abonează-te pentru experiența stiripesurse.ro Premium!

  • cea mai rapidă sursă de informații și știri
  • experiența premium fără reclame sau întreruperi
  • în fiecare zi,cele mai noi știri, exclusivități și breaking news
DESCARCĂ APLICAȚIA: iTunes app Android app on Google Play
NOU! Citește stiripesurse.ro
 

Inteligența artificială va filtra cei mai buni candidați pentru un loc de muncă. Dar va face, oare, alegeri bune?

Neuroscience News

Pe măsură ce firmele se bazează din ce în ce mai mult pe platformele de angajare bazate pe inteligența artificială, mulți candidați foarte calificați se trezesc pe lista de rezervă. Analiza limbajului corporal. Evaluări vocale. Teste gamificate. Scanere de CV-uri. Acestea sunt câteva dintre instrumentele pe care companiile le folosesc pentru a selecta candidații cu ajutorul unui software de recrutare cu inteligență artificială. Candidații la un loc de muncă se confruntă cu aceste solicitări automate - iar AI decide dacă sunt potriviți sau nu, scrie BBC.

Companiile se bazează din ce în ce mai mult pe ele. Un sondaj IBM realizat la sfârșitul anului 2023 în rândul a peste 8.500 de profesioniști IT la nivel mondial a arătat că 42% dintre companii foloseau screening-ul AI "pentru a îmbunătăți recrutarea și resursele umane". Alte 40% dintre respondenți aveau în vedere integrarea tehnologiei.

Mulți lideri din lumea corporatistă au sperat că tehnologia de recrutare AI va pune capăt prejudecăților din procesul de angajare. Cu toate acestea, în unele cazuri, se întâmplă opusul. Unii experți spun că aceste instrumente îi selectează în mod inexact pe unii dintre cei mai calificați candidați la un loc de muncă - iar îngrijorările sunt tot mai mari că software-ul ar putea să-i excludă pe cei mai buni candidați."Nu am văzut prea multe dovezi care să demonstreze că nu există prejudecăți în acest caz... sau că instrumentul selectează cei mai calificați candidați", spune Hilke Schellmann, autorul Algorithm, cu sediul în SUA: How AI Can Hijack Your Career and Steal Your Future, și profesor asistent de jurnalism la Universitatea din New York. Ea consideră că cel mai mare risc pe care astfel de software îl reprezintă pentru locurile de muncă nu este ca mașinile să ia locurile de muncă ale lucrătorilor, așa cum se tem adesea - ci mai degrabă să îi împiedice să obțină un rol.

Rău neștiut

Unii candidați calificați pentru un loc de muncă s-au aflat deja în conflict cu aceste platforme de angajare. Într-un caz foarte mediatizat în 2020, Anthea Mairoudhiou, make-up artist din Marea Britanie, a declarat că firma sa i-a spus să candideze din nou pentru rolul său după ce a fost concediată în timpul pandemiei. Ea a fost evaluată atât pe baza performanțelor anterioare, cât și prin intermediul unui program de selecție cu inteligență artificială, HireVue. Aceasta spune că s-a clasat bine la evaluarea aptitudinilor - dar după ce instrumentul de inteligență artificială i-a evaluat slab limbajul corporal, a rămas definitiv fără loc de muncă. (HireVue, firma în cauză, și-a eliminat funcția de analiză facială în 2021). Alți lucrători au depus plângeri împotriva unor platforme similare, spune Schellmann.

Mulți algoritmi de selecție sunt antrenați pe un singur tip de angajat - ceea ce înseamnă că candidații cu un trecut sau acreditări diferite pot fi filtrați (Credit: Alamy) Ea adaugă că candidații la un loc de muncă rareori știu vreodată dacă aceste instrumente sunt singurul motiv pentru care companiile îi resping - în general, software-ul nu le spune utilizatorilor cum au fost evaluați.Cu toate acestea, ea spune că există multe exemple flagrante de defecte sistemice.

Într-un caz, un utilizator care fusese respins a trimis aceeași cerere, dar a modificat data nașterii pentru a se face mai tânăr. Cu această modificare, a obținut un interviu. La o altă companie, un filtru de CV-uri cu inteligență artificială a fost antrenat pe CV-urile angajaților care lucrau deja la firmă, acordând note suplimentare dacă aceștia menționau "baseball" sau "baschet" - hobby-uri care erau legate de angajații cu mai mult succes, adesea bărbați.Cei care au menționat "softball" - de obicei femei - au fost retrogradați. Grupurile marginalizate deseori "trec printre degete, pentru că au hobby-uri diferite, au mers la școli diferite", spune Schellmann.

În unele cazuri, criteriile de selecție tendențioase sunt clare - cum ar fi vârsta sau sexismul -, dar în altele, sunt opace.În cadrul cercetării sale, Schellmann a aplicat pentru un loc de muncă într-un call center, pentru a fi selectat de inteligența artificială. Apoi, ea s-a logat din partea angajatorului. Ea a primit o notă mare la interviu, în ciuda faptului că a vorbit o germană fără sens când ar fi trebuit să vorbească în engleză, dar a primit o notă slabă pentru acreditările sale reale relevante de pe profilul său LinkedIn.Ea se teme că efectele negative se vor răspândi odată cu tehnologia. "Un manager de angajare uman părtinitor poate face rău multor oameni într-un an, iar asta nu este grozav", spune ea. "Dar un algoritm care este poate folosit în toate cererile de angajare primite într-o companie mare... ar putea afecta sute de mii de candidați".

"Nimeni nu știe exact unde este prejudiciul

"Problema [este că] nimeni nu știe exact unde este prejudiciul", explică ea. Și, având în vedere că firmele au economisit bani prin înlocuirea personalului uman din domeniul resurselor umane cu inteligența artificială - care poate procesa grămezi de CV-uri într-o fracțiune de timp - ea crede că firmele ar putea avea o motivație redusă pentru a interoga deficiențele mașinii.

Un manager de angajare uman părtinitor poate afecta o mulțime de oameni într-un an, iar asta nu este grozav. Dar un algoritm care poate fi folosit în toate candidaturile primite de o companie mare... ar putea afecta sute de mii de candidați - Hilke Schellman.

Din cercetările sale, Schellmann este îngrijorată și de faptul că firmele de software de screening "grăbesc" lansarea pe piață a unor produse subdezvoltate, chiar defectuoase, pentru a profita de cerere. "Furnizorii nu au de gând să iasă public și să spună că instrumentul nostru nu a funcționat sau că a fost dăunător pentru oameni", iar companiile care le-au folosit rămân "speriate că va exista un proces colectiv gigantic împotriva lor".

Această tehnologie trebuie să fie bine pusă la punct

Sandra Wachter, profesoară de tehnologie și reglementare la Institutul de Internet al Universității Oxford, consideră că este important ca această tehnologie să fie bine pusă la punct.

"A avea o inteligență artificială imparțială și corectă nu este doar un lucru etic și necesar din punct de vedere legal, ci și ceva care face ca o companie să fie mai profitabilă", spune ea. "Există o oportunitate foarte clară de a permite ca AI să fie aplicată într-un mod în care să ia decizii mai corecte și mai echitabile, care se bazează pe merit și care, de asemenea, cresc profitul unei companii."

Wachter lucrează pentru a ajuta companiile să identifice prejudecățile prin co-crearea testului Conditional Demographic Disparity, un instrument disponibil publicului care "acționează ca un sistem de alarmă care vă notifică dacă algoritmul dvs. este părtinitor. Acesta vă oferă apoi posibilitatea de a vă da seama care criterii de decizie [de angajare] cauzează această inegalitate și vă permite să faceți ajustări pentru ca sistemul dvs. să fie mai corect și mai precis", spune ea. De la dezvoltarea sa în 2020, Amazon și IBM se numără printre întreprinderile care l-au implementat.

Schellmann, între timp, solicită "garduri de protecție și reglementări" la nivelul întregii industrii, din partea guvernelor sau a organizațiilor non-profit, pentru a se asigura că problemele actuale nu persistă. Dacă nu se intervine acum, ea se teme că IA ar putea face ca locul de muncă al viitorului să fie mai inegal decât până acum.

ACTIVEAZĂ NOTIFICĂRILE

Fii la curent cu cele mai noi stiri.

Urmărește stiripesurse.ro pe Facebook

×
NEWSLETTER

Nu uitaţi să daţi "Like". În felul acesta nu veţi rata cele mai importante ştiri.