Arme autonome și limitele etice pentru a evita distrugerea umanității

Inteligența artificială este marea găselniță la modă a tehnologiilor noi. Desigur, ajută enorm, dar are și efecte secundare. Mai întâi din cauza limitelor imaginației umane sau a numărului restâns al datelor disponibile care alimentează un proces de a.i. Apoi, dintre efectele secundare pe care le poate avea - și nu mă refer aici la apocalipsa din scrierile lui Yuval Harari, care ne-a anunțat că a.i. a ajuns deja să facă hacking la mintea umană și, deci, ne poate influența comportamentele, reacțiile și acțiunile fiecăruia dintre noi – se numără controlul, determinarea comportamentului și alegerilor umane sau confuzionarea oricărei ființe bombardată cu informații complexe și contradictorii. Dar dacă elementele de control și de alterare a democrației și libertăților sunt discutabile, nu același lucru se întâmplă cu utilizarea inteligenței artificiale în război, în domeniul armamentelor autonome.

De la pilotul automat la zborul autonom bazat pe inteligență artificială

Nu înseamnă că identificarea facială și utilizarea ei în supravegherea pe scară largă, în creditele sociale care dau accesul la avantaje și perspective într-un stat,  e benignă. Sau urmărirea activităților umane făcute online. Sau valorificarea în timp real a tuturor mișcărilor, acțiunilor și opțiunilor unei persoane ce lasă urme online. Totuși atunci când vorbim despre armamente, despre alegerea țintelor și despre tragerea automată guvernată autonom, fără a implica mintea și decizia umană, perspectivele privind distrugerea completă a omenirii sunt mult mai importante, chiar dacă scenariile apocaliptice tip Terminator pot concura lesne cu cele de tip control absolut al umanității și variante kafkiene ale lui 1984 sau Minunata Lume Nouă.

În materie de armamente, am inventat și folosit pe scară largă dronele. Aplicațiile și relevanța lor în război se vede cel mai bine astăzi, în războiul de agresiune pe scară largă din Ucraina. Aceste vehicule aeriene sau navale sau chiar submarine au variante de funcționare autonomă, pe baza a.i., pentru a seta obiective și direcții de mișcare. Desigur, prima preocupare vizează observarea și identificarea obiectelor din aria vizată.

Deci zborul UAV-urilor, în toate formele lor, poate fi realizat prin pilotare de la distanță de către un operator, sau poate fi realizat pe anumite direcții, distanțe sau regiuni direct, prin intermediul a.i. Este primul tip de utilizare. Ar părea benign și nu departe de opțiunile autovehiculelor Tesla bazate pe a.i, cu observația că volanul există iar responsabilitatea rămâne omului. Deci un salt relativ mic de tip pilot automat pe o parte/secvență a zborului avioanelor.

Selectarea automată a țintei. Dirijarea artificială a decidentului uman al tragerii

Generația a doua nu vizează doar deplasarea autonomă a platformelor militare folosind a.i. la ținte stabilite. Dar rămâne doar la faza de observare. Vizează și țintire sau selectarea/stabilirea autonomă a țintei. Cum se realizează acest pas? Pur și simplu a.i. utilizează baza de date accesibilă și funcțiile de recunoaștere facială pentru a indica, odată ajuns în teatru, țintele urmărite. Se poate, desigur, în variante sofisticate, să discearnă în binomul prieten-dușman sau agresor – victimă, în funcție de formulele inițiale de programare.

Eventuala suprapunere a celor trei indicatori, țintă vizată - dușman-agresor, sau pe varianta inversă agresor, dușman, identitate verificată și declararea țintei poate fi o variantă pentru a decide și selecta ținta. Însă, în cazul acestor drone, generația de armament presupune existența fie a unei a doua drone, fie a unui alt tip de armament care să elimine ținta stabilită, ghidat de observațiile și stabilirea/alegerea țintei, să tragă. Decizia de tragere aparține factorului uman, fie operator al dronei, fie al armamentelor utilizate în eliminarea țintei. Astfel, factorul uman validează ținta și stabilește oportunitatea tragerii la punctul identificat de către a.i.

Deja încep să apară probleme de natură etică. Este vorba despre măsura în care autonomia de selectare a țintei de către inteligența artificială și prezentare a rezultatelor acestei selecții nu influențează dramatic factorul uman care decide tragerea. Pentru că, pe o variantă mare de încredere și utilizarea repetată a procedeului, este posibil ca selecția țintei în sine odată făcută greșit, în oricât de puține cazuri, de inteligența artificială, să ducă la accidente pentru că factorul uman nu mai analizează cu atenție ținta și validează acțiunea decisă de a.i. practic automat. Iar aici vorbim despre pierderea unei vieți, de focul către propria tabără sau între aliați, incidente și accidente cunoscute și cu o bază teoretică deja formată.

Să ne imaginăm varianta optimă: dorim să curățăm un câmp de mine sau să eliminăm o mină maritimă identificată în larg. Drona “știe” să zboare autonom, să identifice ținta și să dea coordonatele, și o armă separată cu decizie umană distruge ținta. Nu se trage de pe drona care face scanarea, zboară autonom și selectează ținta. Dar greșeli pot apărea și aici, evident. Iar ceea ce e identificat drept mină pot să fie resturile unei nave scufundate cu supraviețuitori la bord, ca să speculăm puțin.

Armele autonome fără decizie umană asupra tragerii

Cum arată peisajul și dimensiunea etică atunci când vorbim despre următorul pas, cel al armei autonome? Atunci drona zboară independent, selectează ținta și trage deopotrivă, fără control sau decizie umană. Dimensiunea erorilor este mult mai mare iar perspectiva deciziei unei mașini, robot sau dronă nu numai asupra țintei, ci și a acțiunii de distrugere a acesteia, luată independent și fără decizie umană, este cel puțin înfricoșătoare.

Desigur, suntem încă departe de un asemenea proces, chiar dacă unii experți în domeniu spun nu numai că e posibil, dar că s-a experimentat deja, dacă nu în mod secret și controlat în state democratice, cu certitudine în state autoritariste care  au asemenea tehnologie, acolo unde viața omului nu e supusă garanțiilor date de drepturile fundamentale și nu prea contează pentru decidenți. Așa cum la nivelul medicinei și geneticii liniile roșii ale eticii au fost depășite, tot astfel s-au făcut experimente și în materie de deplasare, selectarea țintei și lovirea ei. Sigur, nu există o bază de date suficient de importantă și bogată, relevantă pentru procesul de tragere, pentru a putea alimenta cu date suficiente procesul dezvoltat de inteligența artificială în această materie și genera autonomia pentru tragere. Dar procesul nu e deloc departe.

Toate figurile majore ale tehnologiei globale, Elon Musk sau Mark Zuckerberg, ca și mulți alții, vorbesc despre nevoia de a reglementa a.i. Tot astfel cum, pe fond și principial, alți experți vorbesc că e superflu și chiar periculos să blochezi cercetarea proprie într-un domeniu în care competitorul tău, care nu are aceleași constrângeri, merge înainte. Lăsați-ne să cercetăm și să explorăm totul pentru a ști și a putea confrunta, spun cei în cauză, pentru că în această materie competitorii și rivalii democrației cu mijloace suficiente și de calitate  merg mai departe în cercetare, susțin cei din această categorie. Pentru că nu poți stopa știința, ea va merge mai departe indiferent de restricții sau limitări, morale, etice sau de altă natură(sancționarea post festum).

Ce vom face ca umanitate și dacă vom reuși să imprimăm responsabilitate în utilizarea noilor tehnologii disruptive va da măsura supraviețuirii umanității. Desigur, fără să dramatizăm, reglementarea inteligenței artificiale este tot mai acut necesară măcar pentru a asigura cetățenii, a crea încrederea necesară susținerii cercetării și aplicațiilor în domeniu și a da măsura responsabilității pentru siguranța și securitatea oamenilor în fața dezvoltării explozive a tehnologiei zilelor noastre, transferată în domenii atât de sensibile precum armele autonome.