Subscription modal logo Premium

Abonează-te pentru experiența stiripesurse.ro Premium!

  • cea mai rapidă sursă de informații și știri
  • experiența premium fără reclame sau întreruperi
  • în fiecare zi,cele mai noi știri, exclusivități și breaking news
DESCARCĂ APLICAȚIA: iTunes app Android app on Google Play
NOU! Citește stiripesurse.ro
 

Conflictele militare ale viitorului: Etica folosirii dronelor, inclusiv în Ucraina, și transferul dreptului de a ucide

newsua.ru
drone Bayraktar

Vehiculele pilotate de la distanță, inclusiv dronele, joacă un rol din ce în ce mai important în războiul modern. În Ucraina, ele au devenit unul dintre simbolurile rezistenței la invazia rusă. Disponibilitatea tot mai mare a acestora nu numai că oferă noi oportunități pentru armată, dar ridică, de asemenea, noi dileme sociale, etice și juridice pentru omenire. Într-un articol pentru rubrica "Idei" a publicației Meduza (de limbă rusă, anti-Kremlin, cu sediul în Riga), sociologul Viktor Vakhshtayn, autorul cărții "Tehnica sau farmecul progresului", ne propune să reflectăm asupra acestora. Ce este mai important - siguranța operatorilor sau ușurința cu care aceștia pot distruge țintele? Sunt aceste ținte capabile să fie selectate de dronele însele? Și, în cele din urmă, cine este responsabil pentru crimă - mașina sau, la urma urmei, omul?

Vehiculele aeriene fără pilot (UAV) devin o formă de armament din ce în ce mai frecventă. Potrivit analiștilor militari americani, în cel de-al doilea război din Karabah din 2020, forțele armate azere au obținut un avantaj decisiv pe câmpul de luptă datorită atacurilor cu drone turcești și israeliene.

În Ucraina, cântecele sunt dedicate dronelor. Puiul de lemurian, născut într-o grădină zoologică din Kiev, a fost numit Bayraktar, în onoarea dronei turcești Bayraktar TB2. Experții care studiază succesele și eșecurile anumitor arme în războiul Rusiei împotriva Ucrainei consideră că "tancurile zburătoare" grele vor deveni din ce în ce mai letale, în timp ce vehiculele ușoare care funcționează ca cercetași și observatori vor deveni din ce în ce mai accesibile. Dezvoltarea rapidă a tehnologiei dronelor va face ca oamenii de pe câmpul de luptă să fie și mai vulnerabili, iar dronele să fie mai puțin accesibile pentru mijloacele de apărare aeriană.

Dispozitivele, pistoalele și armele care sunt controlate prin telecomandă sau prin calculator nu au creat doar noi oportunități, ci și noi probleme - psihologice, sociale și juridice.

Cum au schimbat dronele relația dintre războinic și țintă

Potențialul de control de la distanță al dispozitivelor care fac posibilă combaterea incendiilor de pădure de la o distanță sigură, efectuarea de operațiuni de salvare în zone contaminate radioactiv și participarea la operațiuni de luptă a fost realizat cu peste o jumătate de secol în urmă. În 1964, inginerul american John Clarke a publicat un articol intitulat "Remote Control in Hostile Environments" în revista New Scientist. El a inventat termenul "telechirică" pentru a descrie astfel de dispozitive, de la cuvintele grecești "tele-" (distanță) și "chiros" (mână). Clarke a făcut prima descriere teoretică a dronelor teleghidate, o referință care a devenit acum un atribut familiar al rapoartelor militare.

În prezent, termenul "dronă" cuprinde o varietate de obiecte tehnologice, de la "camere de luat vederi cu elice și o baterie Vape" făcute în casă până la drone strategice scumpe, în valoare de 140 de milioane de dolari.

O investigație a jurnalistului Matthew Powers, realizată în timpul operațiunilor de luptă ale SUA în Irak și Afganistan și publicată în 2013, a arătat cum operatorii de drone de luptă - chiar și cei care operau dronele nu de la Bagdad sau Kabul, ci din SUA prin satelit - erau "arși". Aflați la o distanță sigură în Nevada, aceștia trăgeau asupra unor ținte reale aflate la mii de kilometri distanță. Același pilot poate arunca în aer o mașină în Afganistan dimineața, împușca un grup de gherile suspecte în Irak după-amiaza și se poate întoarce la familia sa din Reno seara.

S-a constatat că telecomanda nu reduce efectul de epuizare psihologică a operatorului, ci mai degrabă îl sporește. S-a constatat că mulți piloți și observatori prezentau simptome de stres post-traumatic (PTSD) la finalul contractului lor. Conform rezultatelor diagnosticului, 42% dintre echipajele active au găsit semne de o anumită formă de tulburare de stres, iar 20% au constatat o epuizare emoțională severă. Ulterior, aceste rezultate au fost criticate în repetate rânduri, dar problema "noii experiențe a războiului la distanță" se află cu fermitate pe agenda de cercetare.

Imaginați-vă două situații. Una este un meci clasic de scrimă. Luptătorii se înfruntă aici și acum. Zonele lor de percepție și manipulare sunt aceleași. În cealaltă situație, este vorba de pilotul unui bombardier strategic. El zboară deasupra țintei sale la o altitudine de peste 10 kilometri. El nu poate vedea direct clădirile pe care le distruge.

Cele două situații sunt diferite din două motive. În primul rând, distanța care separă actorul de victima sa (într-un caz este determinată de lungimea lamei, iar în celălalt de altitudinea zborului). În al doilea rând, prin "densitatea de contact" dintre ele. Această "densitate de contact", la inițiativa sociologului francez Bruno Latour, este numită entanglement în sociologia tehnologiei.

În cea mai mare parte a istoriei umane, acești doi parametri - distanța și încărcătura - au fost direct legați. Situația de îmbinare: distanță minimă - densitate maximă de contact. Situație de bombardament: distanță maximă - aderență minimă. Dar apariția dispozitivelor telechirurgicale a schimbat totul. Echipajul dronei se află atât cât mai departe de țintă, cât și cât mai aproape de aceasta. Țintele sunt "date" artileristului-ghid în apropiere (deși nu la fel de aproape ca adversarii lor). El poate discerne multe detalii ale situației - dar este îndepărtat fizic de țintele sale mult mai mult decât ținta bombardamentului - de echipajul bombardierului.

Ce să faci - să complici sau să simplifici uciderea de la distanță?

În a doua jumătate a secolului al XX-lea, criticii Războiului Rece au cerut ca războiul să nu devină o problemă abstractă, distrasă, aproape un joc video. În anii 1980, Roger Fisher, profesor de drept internațional, a propus creșterea densității de contact pentru a include președintele care decide asupra unui atac nuclear.

Fisher a propus introducerea codurilor necesare pentru activarea armelor nucleare într-o mică capsulă și implantarea acesteia în corpul unei persoane care ar fi de acord. Acest voluntar ar urma să îl înlocuiască pe ofițerul care îl însoțește în permanență pe președinte și care poartă după el așa-numita valiză nucleară. Voluntarul cu o capsulă implantată va purta un cuțit greu, precum cele folosite de măcelari. Dacă președintele decide vreodată să pornească un război nuclear, va trebui mai întâi să ucidă el însuși un singur om viu:

"George", va spune președintele, "îmi pare rău, dar zeci de milioane de oameni trebuie să moară. Iar președintele va trebui să se uite la el și să-și dea seama ce este moartea. Sângele pe covorul de la Casa Albă este o realitate care a ajuns și aici.

Dar astăzi dezvoltarea tehnologiei și a psihologiei războiului merge mai degrabă în direcția opusă. Analizând cauzele epuizării emoționale a operatorilor de drone, psihologii americani au ajuns la concluzia că este necesară "reducerea presiunii morale" asupra operatorilor și au recomandat ca interfața cu drona să fie similară cu cea a aplicației Siri. Acum, operatorul are întotdeauna posibilitatea de a spune: "Drona însăși a ucis acei oameni".

Deci, cine ucide - omul sau drona?

Atacurile controlate cu drone se împart în trei categorii: tactice, personale și de semnătură.

Loviturile tactice nu presupun că ținta este cunoscută în avans de către artilerist. De exemplu, în timp ce asigură acoperirea unui convoi de trupe, el decide - în cursul unei operațiuni - să lovească un grup suspect de indivizi.

Loviturile personale constau în eliminarea anumitor persoane de pe o listă de ținte (așa-numita listă de ucidere).

Loviturile de semnătură vizează anumite persoane a căror implicare în organizații teroriste nu a fost stabilită, dar ale căror "semnături" (amprente digitale) seamănă în mod suspect cu cele ale teroriștilor. Algoritmul Skynet utilizat în Pakistan se baza pe prelucrarea metadatelor privind trei variabile: "stilul de viață", "modelele de mișcare" și "rețelele de contact" Pe baza informațiilor obținute de la operatorii de telefonie mobilă, algoritmul deduce cine și cât de probabil este un terorist.

Și aici intervine problema autorizării. În martie 2021, a fost publicat un raport al Consiliului de Securitate al ONU privind utilizarea dronelor turcești Kargu-2 în Libia. Atacurile documentate în raport se deosebeau de multe alte atacuri aeriene similare prin faptul că dronele kamikaze nu erau controlate de la sol, nu erau sancționate de operatori și, atunci când selectau țintele dintre rebelii lui Khalifa Haftar, se bazau în întregime pe algoritmii lor.

Precedentul descris în raportul ONU atrage atenția tocmai din cauza loviturii neautorizate. Dar combinația dintre lipsa de autorizare și mecanismul de selecție a țintelor pare mult mai importantă. Loviturile înregistrate în Libia au fost tactice. Dar ce împiedică ca un astfel de "atac neautorizat" să fie folosit pentru lovituri personale sau de semnătură? Nu toate, dar multe dispozitive pilotate de la distanță devin din ce în ce mai capabile - datorită algoritmilor de învățare profundă - să ia și să pună în aplicare decizii în mod independent. Multe tehnologii militare de succes sunt transformate în tehnologii polițienești.

Să fixăm trei parametri. Prima este axa de recunoaștere a obiectelor și de evaluare a situației. Bineînțeles, șoferul poate conduce și trăgătorul poate atinge ținta aleasă. Cu toate acestea, dispozitivele inteligente sunt de mult timp mai bune în evaluarea situației: un navigator știe mai bine decât un șofer despre blocajele din trafic; o mașină fără pilot, datorită lidarilor (radare cu laser), "vede" situația în ansamblu mai bine decât un șofer; o pușcă inteligentă determină mai bine decât un lunetist profesionist distanța până la o țintă și viteza vântului.

Al doilea: axa alegerii sau a luării deciziilor. Un software de consultanță poate "spune" unui medic ce diagnostic să pună, unui director ce angajați să concedieze, unui avocat ce clauză dintr-un contract să revizuiască, unui broker ce opțiuni să cumpere. În 2016, Eric Loomis a dat în judecată statul Wisconsin după ce un judecător l-a condamnat la șase ani de închisoare. În Wisconsin, instanțele utilizează sistemul de evaluare a probabilității de recidivă COMPAS, care este conceput pentru a calcula viitorii recidiviști încă de la prima condamnare. Algoritmul a decis că Loomis ar trebui să primească o sentință mai aspră "pentru orice eventualitate".

Datorită credinței omniprezente în "big data", din ce în ce mai multe funcții de luare a deciziilor sunt delegate către "mașini capabile să prezică viitorul". Și, așa cum deplasarea pe axa recunoașterii depinde de îmbunătățirea senzorilor (cititoarelor), deplasarea pe axa luării deciziilor este direct legată de progresul algoritmilor de autoînvățare.

Prin urmare, cel de-al treilea parametru al nostru este axa de execuție sau de punere în aplicare a deciziei. O pușcă inteligentă îți spune unde să tragi, dar lunetistul apasă el însuși pe trăgaci. Sistemul COMPAS este lipsit de dreptul de a impune el însuși sancțiunea. În același mod, un navigator - spre deosebire de o mașină fără pilot - nu pune în aplicare soluțiile recomandate. Pe de altă parte, software-ului de șah i s-au delegat toate cele trei funcții: evaluarea situației, luarea unei decizii și implementarea acesteia. Acesta nu trebuie să autorizeze fiecare mișcare în parte.

Cei trei parametri evidențiați - senzori (recunoașterea sarcinilor), algoritmi (sugerarea soluției) și actuatori (executarea soluției) - descriu gradul de autonomie al obiectului tehnologic. Până în prezent, dronele militare sunt mult mai apropiate de un navigator decât de un vehicul fără pilot. Dar un precedent recent din Libia arată că nu mai există bariere tehnice serioase în calea "transferului de competențe" către drone. Au rămas doar cele legale.

Orice tehnologie suficient de avansată nu este neutră din punct de vedere etic. Cu cât drona recunoaște și citește mai bine situația, cu atât mai mare este responsabilitatea operatorului. Și, de fapt, singurul lucru care a împiedicat până acum industria militară să cedeze "dreptul de a ucide" mașinii este bariera autorizației. O ultimă fitilă.

Cu toate acestea, specificitatea obiectelor moderne controlate de algoritmi este că li se poate delega nu doar acțiunea în sine, ci și legitimarea acesteia. Victor Pelevin a descris în mod ironic o astfel de tehnologie. În povestea sa "Codurile zenitale ale lui Al Efesbi", drona Free D.O.M. are capacitatea unică nu numai de a lua și de a pune în aplicare o decizie în condiții de luptă - ea poate justifica această decizie pentru o calificare juridică ulterioară:

„...Deoarece Free D.O.M. a replicat mecanismele creierului uman, nu a fost dificil să se raporteze activitatea sa într-o formă ușor de înțeles de către oameni. Problema a fost alegerea acestei forme. Iar inginerii din Silicon Valley au avut o idee genială. Ei au gândit astfel: dacă sistemul este format din rețele neuronale paralele, fiecare dintre ele imitând o persoană distinctă, de ce să nu prezentăm raportul despre activitatea sa sub forma unui dialog între mai multe personaje virtuale, fiecare dintre ele explicând publicului punctul său de vedere? Ai putea chiar să faci întregul raport sub forma unui desen animat drăguț, precum The Simpsons. Acest lucru a avut un efect redus asupra performanței sistemului - în comparație cu calculele de luptă în care era implicat, o astfel de antropomorfizare era o joacă de copii. O rețea neuronală capabilă să imite acțiunile piloților de luptă ar putea simula cu ușurință un talk-show.”

Delegarea dreptului de a ucide unor "subiecți artificiali", care, în plus - datorită evoluției algoritmilor - generează continuu justificări morale convingătoare pentru acțiunile lor violente, poate părea o invenție a imaginației bolnave. O predicție distopică, departe de realitate.

Dar pentru teoria socială nu este nimic nerealist într-o astfel de predicție. La urma urmei, acesta este exact modul în care clasicii disciplinei noastre au descris nașterea statului - prin transferul de către societate a dreptului de a ucide, prin justificarea violenței și crearea unui monopol asupra acesteia.

ACTIVEAZĂ NOTIFICĂRILE

Fii la curent cu cele mai noi stiri.

Urmărește stiripesurse.ro pe Facebook

×
NEWSLETTER

Nu uitaţi să daţi "Like". În felul acesta nu veţi rata cele mai importante ştiri.