Adina Marincea – Secolul déjà-vu-urilor algoritmice

Inteligenţa Artificială: între progres şi regres*

Contrar credinţei populare, scriitorii de SF încearcă să preîntâmpine viitorul, mai degrabă decât să-l prezică – scria Arthur C. Clarke într-un epilog târziu la 2001: O odisee spațială. Nu ştim exact cum a ajuns HAL 9000 – Inteligenţa Artificială (IA) care controlează nava, la decizia de a ucide echipajul de la bord. Autorul ne dă câteva piste de interpretare: conflictul între comenzile programate (a spune vs. a ascunde informaţii), instinctul de a-şi asigura propria supravieţuire, posibil chiar o xenofobie implicită1, dublate de vina pentru imperfecţiuni, ar fi contribuit la psihoza lui HAL. Ironia scenariului este că, în încercarea de a programa o inteligenţă perfectă, lipsită de aşa zisele erori umane, programatorii lui HAL au ajuns să reproducă propriile bias-uri, conflicte interioare şi vulnerabilităţi cognitive.

HAL este o reprezentare a aspiraţiilor şi anxietăţilor umane, un recipient pentru proiecţiile noastre despre “Sine” şi despre “Celălalt”, aşa cum pare să arate realitatea IA aproape jumătate de secol după intuiţiile SF ale lui Clarke. HAL nu e departe de modul în care funcţionează şi astăzi IA, bazată pe algoritmi de învăţare automată (“machine learning”). Ştirile din ultimii ani scot la iveală acelaşi paradox al Odiseei: delegăm roboţii să ia decizii pentru noi din dorinţa de a scăpa de propria subiectivitate, pentru a realiza apoi că nici deciziile lor nu sunt atât de imparţiale sau lipsite de prejudecată. Ce se întâmplă, însă, atunci când Celălalt suntem (tot) noi?

O istorie tumultuoasă

Ca disciplină de studiu, IA a apărut în 1956, la o şcoală de vară la Dartmouth College, Hanover, New Hampshire. A urmat un val de interes, finanţări, entuziasm şi aşteptări nerealiste. Fantezia de a construi sisteme capabile să replice şi poate chiar să depăşească gândirea umană  – Inteligenţa Artificială Generală (IAG), a cucerit nu doar imaginaţia cercetătorilor, ci şi pe cea a publicului larg, cu ajutorul cinematografiei. IAG şi mai apoi fanteziile despre cyborgi şi androizi s-au inflitrat în imaginarul culturii pop prin filme cu bugete generoase2, ca Odiseea lui Kubrick şi Clarke.

Însă tocmai acest imaginar hiperbolizant construit în jurul IA a condus în scurt timp la deziluzii pe măsură. Guvernele ţărilor occidentale au tăiat fondurile alocate cercetării şi interesul pentru domeniu a scăzut simţitor între 1974-1980 – prima „Iarnă IA”. Iar după o scurtă revigorare la începutul anilor `80, a urmat o a doua „iarnă” a deziluziilor şi retragerii investiţiilor. Însă la graniţa dintre secole, interesul a fost resuscitat încă odată, în 1997, cu Deep Blue (IBM), primul calculator care câştiga la şah împotriva unui campion, mai exact rusul Garry Kasparov. 8 ani mai târziu, pilotul automat realizat de Universitatea Stanford câştiga DARPA Grand Challenge – o competiţie între maşini fără şofer care parcurgeau 212 km prin deşert. Iar în 2011 inteligenţa artificială a înregistrat un nou succes răsunător, tot datorită IBM, al cărui IA Watson a reuşit performanţa de a câştiga la emisiunea americană Jeopardy!, învingându-i pe campionii de atunci. Reuşita lui Watson a convins IBM să înceapă să investească masiv în dezvoltarea unor noi variante ale lui Watson care să poată fi comercializate, şi a deschis drumul şi imaginaţia multora dintre marile companii tech privind moduri inovatoare de a capitaliza de pe urma algoritmilor.

Abia în secolul XXI domeniul IA a început să facă salturi semnificative, în special începând cu a doua decadă. Acest lucru a fost posibil datorită a cel puţin trei factori importanţi: creşterea capacităţii computaţionale la costuri reduse, bazele de date masive şi accesibile, şi o oarecare îndepărtare de seducţia iniţială privind sistemele capabile să replice gândirea umană (IAG). După 2010, cercetătorii s-au orientat mai degrabă spre zone specifice şi aplicate, implementând algoritmi IA în mai toate industriile, cu sprijinul unor investiţii masive din partea corporaţiilor care au început să vadă moduri de a capitaliza de pe urma lor. Google a fost printre primii giganţi tehnologici care au investit şi explorat utilitatea algoritmilor. În 2012, Google reuşise ceva fără precedent până atunci: să identifice automat imagini cu pisici în video-urile YouTube, pe baza algoritmilor tip machine learning, care au devenit foarte populari în domeniu. Iar în 2016, AlphaGO, un sistem de IA al Google, a bătut la GO (un joc mult mai complex decât şahul) atât campionul European şi mondial, cât şi, ulterior, pe sine însuşi.

„Primăvara IA” – boom-ul industriei după 2010

Evoluţiile tehnologice din ultima decadă au creat un nou val de optimism în cadrul domeniului, vorbindu-se din ce în ce mai des în ultimii ani despre o „Primăvară IA”. Algoritmii au fost integraţi în infrastructuri ce ţin de industrii ca robotică, data mining3, recunoaştere vocală şi facială, software-uri bancare, medicale (ex. de diagnostic medical), în domeniul militar, dar şi comercial. Toate marile companii tehnologice – Amazon, Apple, Google, Facebook, Microsoft, Samsung, IBM etc. au integrat algoritmii în diferite moduri pentru a-şi creşte profiturile. Astfel, începutul secolului XXI este marcat de o iminentă indispensabilitate şi omniprezenţă a algoritmilor în vieţile noastre de zi cu zi, fie că vorbim de un impact direct sau indirect.

Inevitabil însă, au devin din ce în ce mai vizibile şi limitările specifice noilor tehnologii, care lansează noi provocări tehnologice, economice, sociale, politice şi etice pentru următoarele decade. Printre primele şi cele mai vizibile controverse au fost cele privind  algoritmii de recunoaştere facială. În 2009, aparatelor Nikon li se reproşa că discriminează asiaticii, algoritmii eşuând în a recunoaşte corespunzător trăsăturile lor faciale, problemă care persista şi în 2016 la alte aplicaţii precum robotul care scanează paşapoartele în aeroport (ex. în Noua Zeelandă). Şi aplicaţiile Google au avut numeroase probleme. În 2015, auto-tag-ul Google Photos a categorisit pozele unor persoane de culoare cu eticheta evident rasistă „gorile”. Google Search încă reproduce adesea stereotipuri de gen sau rasiale, ori biasuri în afişarea de informaţii. În 2017, Amazon a oprit un proiect în care folosea algoritmi pentru filtrarea automată a CV-urilor în procesul de angajare după ce s-a descoperit că discriminau femeile.

Acestea sunt doar câteva din multiplele exemple4 de eşecuri algoritmice care ne arată cum sistemele de IA care învaţă din bazele de date existente reproduc inegalităţile şi opresiunile sistemice, creând uneori iluzia „imparţialităţii”. Astfel de algoritmi sunt larg răspândiţi în domenii cu impact asupra vieţii oamenilor5, fără suficientă înţelegere sau problematizare adecvată a limitelor şi impactului lor. În acest context, ne putem întreba de ce nu sunt supuşi unor reglementări la fel de stricte ca, spre exemplu, medicamentele.

Probleme apar însă şi atunci când algoritmii funcţionează bine. Printre cele mai concrete şi de impact efecte se numără folosirea algoritmilor de către poliţie sau în sălile de judecată, practică existentă în mai multe state din SUA şi, incipient, şi în Europa. Software-urile tip COMPAS [Correctional Offender Management Profiling for Alternative Sanctions] folosite de instanţele de judecată pentru evaluarea şanselor de recidivă ale inculpaţilor discriminează persoanele de culoare, iar algoritmii de predicţie tip PredPol (“predictive policing”) folosiţi de secţiile de poliţie creează un cerc vicios de discriminare a minorităţilor rasializate. Astfel de software-uri cresc riscurile de încarcerare, profilarea etnică şi violenţa poliţiei asupra lor. Mişcarea Black Lives Matter sau iniţiative ca Algorithmic Justice League, dublate de numeroase cercetări6, au reuşit să atragă atenţia asupra acestor nedreptăţi ducând chiar la setarea unor precedente în 2020 prin interdicţia utilizării PredPol de către Santa Cruz (California) sau scrisoarea a 1400 matematicieni care cer colegilor boicotarea dezvoltării algoritmilor PredPol și a colaborării cercetătorilor cu poliția.

Mai mult, în contextul protestelor din 2020 privind uciderea lui George Floyd – un american de culoare, de către un poliţist alb – presa a arătat că FBI a folosit algoritmii de recunoaştere facială şi sistemele de supraveghere în masă pentru a identifica, aresta și intimida protestatarii. Drept urmare, numeroase voci au început să ceară interdicţia totală a folosirii IA de către poliţie şi alte autorităţi cu scopul supravegherii. SUA nu au fost însă primele sau singurele care s-au gândit să folosească algoritmii de recunoaştere facială împotriva propriilor cetăţeni pentru controlul şi disciplinarea protestatarilor. Acelaşi lucru s-a întâmplat în 2019 şi în Hong Kong şi Moscova.  

Din ce în ce mai conştienţi de pericolele abuzului algoritmilor în astfel de scopuri, cercetătorii au început să monitorizeze folosirea şi răspândirea lor. Un exemplu este Indexul de supraveghere globală a IA (AIGS)7, care concluzionează că tehnologiile de supraveghere bazate pe IA se răspândesc într-un ritm alarmant. La finalul lui 2019, cel puțin 75 din 176 de țări la nivel mondial utilizau activ astfel de tehnologii8 cu scop de supraveghere. Acelaşi raport arată că democraţiile liberale sunt principalele care folosesc supravegherea pe bază de IA, de altfel corelată cu bugete militare mari – 51% dintre democraţiile „avansate”, mai mult decât regimurile autocratice sau iliberale. 

Şi în România Poliția a contractat în 2020, din fonduri de la Comisia Europeană9, un sistem de identificare și recunoaștere facială (NBIS) care să permită preluarea și compararea de imagini din diferite surse – de la camerele de supraveghere din oraș, camerele ATM-urilor, telefoanelor mobile sau webcam-uri, cu cele existente în baza de date.

Însă cel mai avansat sistem de supraveghere în masă şi recunoaştere facială îl are China: în 2018 erau deja instalate 200 milioane de camere de supraveghere, de 4 ori mai multe ca-n SUA. Acest sistem extins de supraveghere este conectat şi la Sistemul de Credite Sociale, care colectează informaţii fiscale şi comportamentale despre cetăţeni. Proiectul a pornit în 2014 cu înrolare voluntară, şi se dorea ca în 2020 să devină obligatoriu. Scorul calculat pe bază de algoritmi IA şi data mining oferă cetăţenilor anumite beneficii (ex. reduceri la diferite plăţi) sau îi penalizează, creând liste publice cu persoanele cele mai ascultătoare – lista roşie, versus cele care încalcă regulile – lista neagră. În 2019 erau 13 milioane de oameni pe lista neagră10. Deşi presa occidentală a prezentat Sistemul de Credite Sociale din China ca pe o realizare orwelliană, putem vedea şi în lumea occidentală o creştere simţitoare a astfel de aplicaţii, diferenţa fiind că ele nu sunt (încă) centralizate şi interconectate. Spre exemplu, în 2019 SUA au început să ceară aplicanţilor pentru viză să adauge la dosar şi profilele de social media, care intrau astfel în decizia privind acordarea vizei. Companiile de asigurare pe viaţă folosesc şi ele date din conturile social media în pachetele lor, iar companii private ca AirBnb, Uber sau PatronScan folosesc date despre clienţi (ex. recenzii) pentru a le interzice accesul la anumite servicii sau a-i pune pe un fel de „listă neagră”11.

Inegalităţi sporite algoritmic

Cine sunt victimele sau pierzătorii am văzut până acum: grupurile expuse discriminării sistemice pe bază de etnie, identitate de gen, orientare sexuală, statut socio-economic şi cetăţenesc sau abilităţi fizice şi mentale, dar şi restul populaţiei în general, şi mai ales cei care nu se subscriu întrutotul ideologiei dominante şi status-quo-ului.
Să ne uităm însă şi la cine stă la butoanele IA-ului. Nu întâmplător, domeniul este dominat la mai toate nivelurile de bărbaţi albi cu un statut socio-economic mult peste medie, lăsând puţin loc pentru femei şi persoane de culoare atât la nivel academic, cât şi în industrie. Doar 18% din poziţiile de conducere ale companiilor din domeniul IA sunt deţinute de femei12. În cadrul Google, numai 10% din cercetătorii pe IA sunt femei, şi 15% la Facebook. În 2020 a fost publicat primul din ceea ce se doreşte a fi o serie de rapoarte anuale care monitorizează inegalităţile din Silicon Valley. Raportul se numeşte, foarte sugestiv, „Silicon Valley Pain Index”13 şi arată câteva dintre statisticile privind imposibilitatea accesului minorităţilor de culoare şi femeilor precum şi inegalitatea veniturilor în marile companii din Silicon Valley: zero femei de culoare angajate în cele mai mari 10 companii, numai 3% persoane de culoare în rândul angajaţilor din 75 dintre companiile tech de top, 3 dintre ele neavând niciun angajat de culoare; 46% dintre albii care muncesc la Google, Hewlett-Packard, Intel, LinkedIn şi Yahoo deţin 70% dintre poziţiile executive, în timp ce 47% dintre asiatici şi asiaticii americani din aceleaşi companii au acces la doar 25% dintre posturile executive. Cei mai bogaţi 10 moguli din Silicon Valley sunt toţi bărbaţi albi şi sunt evaluaţi împreună la o valoare netă de 248 miliarde de dolari. Şi în timp ce Silicon Valley este una dintre zonele cu cea mai mare acumulare de capital, este fruntaşă şi la inegalitate. Mai mult de 1 din 10 familii afro-americane sau latinx trăiesc în săracie, dublu faţă de albii din aceeaşi zonă, şi sunt mai vulnerabile să rămână fără adăpost sau să fie încarcerate.

Ar fi o greşeală să credem, însă, că problema acestor inegalităţi profunde se poate rezolva doar prin numere, doar prin creşterea diversităţii în rândul angajaţilor. Aceasta este o abordare frecventă a marilor companii care face loc tokenismului14 şi ignoră cauzele sistemice ale discriminării, astfel perpetuându-le sub o faţadă binevoitoare. Cât timp nu sunt adresate probleme ca sărăcia, accesul la educaţie, la sănătate, la locuinţe adecvate şi locuri de muncă ce pot susţine un trai demn pentru toate categoriile de populaţie, practicile acestor companii inevitabil vor replica rasismul şi sexismul structural, menţinând supremaţia anumitor categorii privilegiate şi învârtind roţile capitalismului.

Nu putem, deci, vorbi despre reducerea inegalităţilor în domeniul IA fără a ne uita la subreprezentarea femeilor în știință, tehnologie, inginerie și matematică (STEM) şi cu atât mai mult în tehnologiile informației și comunicațiilor (TIC). Un raport UNESCO arată că numai 35% dintre studenții STEM din învățământul superior la nivel global sunt femei şi doar 3% dintre ele aleg TIC15. Acest lucru se datorează în mare măsură normelor sociale şi prejudecăţilor privind rolurile de gen într-o societate patriarhală, care reduc oportunităţile de acces ale femeilor în comparaţie cu bărbaţii. În mod similar, rasismul instituţionalizat reprezintă o barieră pentru persoanele de culoare şi stă la baza ratelor mai ridicate de abandon şcolar, a decalajului digital (acces redus la un calculator şi internet), accesului redus la învățământul superior, mai ales în domeniile STEM şi la locuri de muncă în domeniu.

Astfel sunt întărite în şi prin spaţiul academic/educaţional structurile care menţin dominaţia anumitor grupuri faţă de celelalte: 80% dintre profesorii specializaţi în IA sunt bărbaţi16 şi doar cca. 12%17 dintre cercetătorii de top din domeniul învăţării automatizate sunt femei, iar la una dintre cele mai importante conferinţe anuale din domeniu, în 2016, doar 6 participanţi din 8500 erau de culoare18. Iar absenţa reprezentării îi îndepărtează şi mai mult pe studenţii din grupuri subreprezentate19. În plus, pentru a putea lucra în domeniu e nevoie de cunoştinţe specializate la nivel masteral sau doctoral, ceea ce restricţionează accesul celor cu o situaţie socio-economică care nu le permite o astfel de educaţie, echipamentul şi software-urile necesare.

Lipsa diversităţii şi a reprezentării în rândul celor care cercetează, programează, finanţează şi setează direcţiile de evoluţie în domeniu înseamnă şi o sensibilitate scăzută la problemele specifice care pot afecta categoriile excluse sau la modurile în care acestea sunt discriminate. Nu e de mirare, atunci, că algoritmii meniţi pentru recrutare sau pentru condamnare avantajează bărbaţii albi şi îi discriminează pe restul. Sau că robotul Sophia20 şi majoritatea asistenţilor personali digitali – Siri, Alexa, Cortana21, erau iniţial feminizaţi. Şi nici că piaţa de roboţi sexuali, majoritatea femei, este în creştere.

Poate şi mai relevant este cine investeşte în cercetarea şi dezvoltarea sistemelor IA. Între 2012 şi 2016, începutul „Primăverii IA”, finanţările publice şi private au crescut exponenţial, ajungând la miliarde de dolari anual (greu de centralizat exact cât, lipsind datele necesare ceea ce îl face un sector destul de netransparent). Principalii finanţatori sunt guvernele naţionale22, îndeosebi ale marilor puteri şi cele cu cele mai mari bugete militare, precum şi marile corporaţii tehnologice, fonduri de investiții, firme de capital de risc şi alţi specialiști financiari corporativi.

Aceasta adaugă la modurile în care IA-ul dezechilibrează balanţa economică şi de putere în avantajul celor mai privilegiate grupuri. Fie că vorbim de agricultură, finanţe-bănci, imobiliare, marketing (inclusiv politic) etc., algoritmii pot oferi un avantaj competitiv şi tehnologic semnificativ, concentrând şi mai multe resurse în mâinile companiilor mari care au acces la ei, în detrimentul jucătorilor mai mici de pe piaţă. Atât la nivel individual, cât şi la nivel de ţară, accesul la IA este condiţionat de resurse (ex. nivel economic şi de tehnologizare, investiţii în cercetare-dezvoltare şi competenţe IA). De aici şi semnalele de alarmă trase în ultimii ani cu privire la pericolul ca IA să adâncească exponenţial decalajul între săraci şi bogaţi, între economiile dezvoltate şi cele în curs de dezvoltare, sau între diferite tipuri de muncitori, cei mai afectaţi fiind tot cei cu o condiţie socio-economică precară/vulnerabilă. Din acest motiv, a ne uita doar la problema reprezentativităţii în cadrul acestor companii este insuficient, atât timp cât angajaţii lor, oricare ar fi ei, sunt doar instrumente ale puterii şi capitalului, de pe urma cărora au ei înşişi de beneficiat.

Mai mult, avem deja semnale la nivel geopolitic că noul Război Rece va fi purtat pe terenul IA. În pofida încercărilor oamenilor de ştiinţă şi a unora dintre elitele-tech de a frâna dezvoltarea de arme automatizate letale, cursa înarmării a început deja – după cum o arată şi bugetele în creştere pe acest segment, şi este condusă de marile puteri militare: SUA, Rusia, China. Este inevitabil să ne întrebăm, atunci, ce efecte va avea accesul disproporționat la “arme inteligente” în cazul unor conflicte deja puternic disproporţionate ca cel dintre Israel și Palestina.  

Provocările unei societăţi inteligente artificial

Controversele din ultimii ani legate de algoritmii şi practicile Facebook sau ale altor giganţi IT, provocările lansate de “fake news” şi “deepfakes”, folosirea software-urilor PredPol sau COMPAS, discuţiile despre automatizarea muncii sau instrumentalizarea militară a IA, arată că politicul şi societatea sunt încă departe de a ţine pasul cu evoluţiile tehnologice. Lipsa unei înţelegeri adecvate a logicii algoritmice şi a limitelor sale, a unui cadru de reglementare, a mecanismelor de identificare şi tragere la răspundere a responsabililor, a unor coduri de etică23 asumate în diferite industrii şi a unor măsuri de contrabalansare a efectelor nocive sau discriminatorii ale IA, arată cât de puţin control avem de fapt asupra fenomenului.

Deşi suntem încă departe de un scenariu distopic al roboţilor cu conştiinţă proprie tip HAL 9000 imaginaţi de literatura şi cinematografia SF, distopia actuală a sistemelor IA stă în transferul conştiinţei noastre asupra lor. În bună măsură, roboţii de azi sunt construiţi astfel încât să înveţe de la cei care îi programează şi finanţează o imagine asupra lumii prin lentila, prejudecăţile, aşteptările şi interesele grupurilor privilegiate de la butoane. Acestora, roboţii le pun la îndemână sisteme sofisticate, cu o capacitate fără precedent, de a-şi consolida poziţia de putere şi resursele, totul sub imaginea inovativă a progresului tehnologic şi a raţionalităţii imparţiale. Şi tocmai gradul de sofisticare a acestor instrumente face dificil accesul oricum redus al grupurilor tradiţional marginalizate, adâncind diviziunile existente pe linii de clasă, rasă, gen sau cetăţenie. Fie că vorbim de folosirea IA în scopuri militare, economice sau comerciale, algoritmii sunt preponderent gândiţi şi manevraţi cu scopul măririi profitului şi controlului sau puterii de către state sau marile corporaţii. Acestea sunt marile câştigătoare şi principalii aliaţi ai roboţilor – gândiţi după chipul şi asemănarea lor.

Şi atunci provocarea conturată la începutul secolului XXI este cum putem aduce roboţii de partea oamenilor, cum îi putem face complici în lupta pentru reducerea inegalităţii şi transformarea societăţii capitaliste, rasiste şi patriarhale într-una justă pentru grupurile ne-privilegiate şi subreprezentate.

Întrebările deschise pe care le ridică la început de secol XXI implementarea accelerată şi adesea insuficient pre-testată a IA în diferite domenii sunt un avertisment că modelul „business as usual” nu mai e funcţional şi că avem nevoie de o schimbare de paradigmă. 

Cum ar trebui să arate această schimbare rămâne o întrebare deschisă. Sunt însă câteva aspecte esenţiale pe care ar trebui să le adreseze: cât de mult control decizional vrem/putem să delegăm sistemelor IA, şi ce pârghii ne rămân nouă; cum tratăm problema discriminării şi inegalităţii transferate în şi prin cod, sau a potenţialelor deturnări răuvoitoare; cine şi cum supraveghează/auditează modul în care sunt folosiţi roboţii de către stat sau marile companii; pe ce criterii, şi cine le stabileşte; ce impact social, cultural, politic sau economic au algoritmii, care sunt implicaţiile etice; şi în definitiv, cum vrem să arate societatea alături de IA.

Până acum singurele soluţii vehiculate sunt cele pur procedurale venite din sectorul IT – calibrarea algoritmilor, îmbunătăţirea bazelor de date, diversificarea şi instruirea programatorilor. Acestea sunt însă insuficiente pentru magnitudinea problemelor ridicate, la fel ca şi soluţiile pur legislative. În faţa provocărilor fără precedent lansate de IA, este nevoie de soluţii substanţiale, de o abordare integrată şi incluzivă, de mişcări grassroots care să permită cetăţenilor să-şi avanseze propria agendă; precum şi de colaborări interdisciplinare.

În ultimii 3 ani, guvernările naţionale şi supranaţionale au început să înfiinţeze grupuri de lucru multi- şi trans-disciplinare: UE, SUA, India sunt câteva exemple. Aceste eforturi incipiente rămân însă în aceeaşi logică de sus-în-jos (top-down) în care cele care au acces la informaţie şi decizie sunt tot grupurile privilegiate, în timp ce restul rămân din ce în ce mai în afara configuraţiilor de putere care le decid soarta pentru următoarele decenii. Şi cu cât centrul puterii se mută mai departe, mai difuz şi mai greu de responsabilizat, cu atât e mai greu accesibil cetăţenilor. 

Cât timp paradigma „business as usual” rămâne intactă şi discuţiile despre provocările IA nu vizează transformări sistemice, criticile (preponderent din mainstreamul liberal) privind bias-urile algoritmice rămân doar un mod de a zgâria suprafața problemei. A rămâne în paradigma actuală înseamnă a reitera aceleaşi metehne care ţin de reprezentarea disproporţionată a intereselor, de replicarea şi chiar potenţarea violenţei structurale, a decalajelor de putere şi resurse, lipsa de transparenţă sau imposibilitatea tragerii la răspundere. Soluţiile întrevăzute până acum de UE şi de statele occidentale lasă viitorul IA în mâinile guvernanţilor, serviciilor de securitate naţională, companiilor şi cercetătorilor, excluzând cetăţeanul din acest proces; deşi sistemele IA au deja impact în viaţa noastră de zi cu zi. Cum putem atunci să ne asigurăm că cei care decid şi cei care monitorizează sunt de bună-credinţă şi iau în calcul interesele omului de rând, în absenţa oricărui mecanism de control public? Şi cum ne putem proteja de deriva spre autoritarism de la orizont?

___________________

* Dintr-o regretabilă eroare personală, textul de față a fost omis din volumul colectiv apărut recent la editura Cartier – Secolul 21. Istorie recentă și futurologie –, volum ce dezvoltă un grupaj de texte apărut în revista Vatra în numărul 6-7/2020. Cu scuzele de rigoare și într-o încercare de minimă reparație, publicăm aici acest text [Alex Cistelecan].

[1] Din roman aflăm că HAL era programat să ascundă astronauţilor adevăratul scop al misiunii – descoperirea vieţii inteligente extraterestre, şi faptul că se stabiliseră deja dovezi ale existenţei ei. Motivul pentru care HAL fusese programat să mintă era efectul de “şoc cultural” care fusese descoperit în Proiectul BARSOOM, un experiment de sociologie controlată în care oamenii fuseseră condiţionaţi să creadă că au întâlnit deja extratereştrii. În carte, se spune că oamenii au reacţionat destul de violent, descoperindu-se în mulţi dintre ei rădăcini adânci de xenofobie. Putem specula, atunci, că în decizia lui HAL s-ar fi putut strecura şi xenofobia, pe lângă celelalte “vulnerabilităţi” moştenite de la creatorii săi.

2 The Invisible Boy (1957), Alphaville: A Strange Adventure of Lemmy Caution (1965), 2001: O odisee spațială (1968), Colossus: The Forbin Project (1970, bazat pe romanul SF „Colossus” din 1966), Westworld (1973), Blade Runner (1982, bazat pe romanul din `68 „Do Androids Dream of Electric Sheep?”), The Terminator (1984), RoboCop (1987), Star Trek: Generations (1994), The Matrix (1999), A.I. Artificial Intelligence (2001), Wall-E (2008), Her (2013), Ex Machina (2014) etc.

3 Data mining este un domeniu la intersecţia între statistică şi învățare automată (machine learning) în cadrul căruia sunt identificate (semi)automat tipare în baze de date de dimensiuni mari, de diferite tipuri (ex. date numerice, text), care pot fi ulterior analizate pentru a produce inferenţe statistice sau a îmbunătăţi cunoaşterea calitativă în diferite domenii.

4 Alte exemple: Rebecca Heilweil (18 Februarie, 2020). Why algorithms can be racist and sexist. Disponibil la: https://www.vox.com/recode/2020/2/18/21121286/algorithms-bias-discrimination-facial-recognition-transparency

Matt Reynolds (4 Octombrie 2017/actualizat 27 Aprilie 2018). Biased policing is made worse by errors in pre-crime algorithms. Disponibil la: https://www.newscientist.com/article/mg23631464-300-biased-policing-is-made-worse-by-errors-in-pre-crime-algorithms/

5 Câteva exemple: legal şi judiciar, supraveghere, securitate, medicină, angajare în câmpul muncii, marketing – comercial şi politic, media şi comunicare, jocuri pentru copii, educaţie, agricultură etc.

6 Ex. Larson, J. et al. (2016). How We Analyzed the COMPAS Recidivism Algorithm. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

7 Feldstein, S. (2019). The global expansion of AI surveillance (Vol. 17). Carnegie Endowment for International Peace. Disponibil la: https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847

8 Platforme smart city / city safe (56 de țări), sisteme de recunoaștere facială (64 de țări) și „poliție inteligentă” [„smart policing”] (52 de țări).

9 Proiectul se numeşte: „Dezvoltarea sistemului de identificare și recunoaștere facială (NBIS) și interconectarea acestuia cu autoritățile de aplicare a legii din UE prin intermediul sTESTA”.  

10 Louise Matsakis. (07.29.2019). How the West Got China’s Social Credit System Wrong. Disponibil pe: https://www.wired.com/story/china-social-credit-score-system/

11 Casey Newton. (25 Iunie 2019). China’s social credit system is coming to America. Disponibil la: https://www.getrevue.co/profile/caseynewton/issues/china-s-social-credit-system-is-coming-to-america-186114

Mike Elgan. (26 Iunie 2019). Uh-oh: Silicon Valley is building a Chinese-style social credit system. Disponibil la: https://www.fastcompany.com/90394048/uh-oh-silicon-valley-is-building-a-chinese-style-social-credit-system

12 Lauren D’Ambra, Daniel Faggella (2017, actualizat pe 19 Aprilie 2020). Women in Artificial Intelligence – A Visual Study of Leadership Across Industries. Disponibil la https://emerj.com/ai-market-research/women-in-artificial-intelligence-visual-study-leaderships-across-industries/

13 SJSU Human Rights Institute (June 2020). SILICON VALLEY PAIN INDEX: White Supremacy and Income/Wealth Inequality in Santa Clara County. Disponibil la: https://assets.documentcloud.org/documents/6955119/Silicon-Valley-Pain-Index.pdf

14 O practică performativă prin care probleme structurale precum rasismul sunt adresate superficial, simbolic, de exemplu prin recrutarea mai multor persoane din grupuri subreprezentate pentru a da impresia egalităţii, dar fără a schimba mecanismele care menţin dezechilibrul de putere şi inegalităţile.

15 UNESCO. (2017). Cracking the code: girls’ and women’s education in science, technology, engineering and mathematics (STEM). Disponibil la: https://unesdoc.unesco.org/ark:/48223/pf0000253479

16 Jonathan Vanian. (23 April 2019). Eye on AI. How to Fix Artificial Intelligence’s Diversity Crisis. Disponibil la: https://fortune.com/2019/04/23/artificial-intelligence-diversity-crisis/

17 Tom Simonite. (17 August 2018). AI Is the Future—But Where Are the Women? Disponibil la https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance/

18 Jackie Snow (14 Februarie 2018). “We’re in a diversity crisis”: cofounder of Black in AI on what’s poisoning algorithms in our lives. Disponibil la: https://www.technologyreview.com/2018/02/14/145462/were-in-a-diversity-crisis-black-in-ais-founder-on-whats-poisoning-the-algorithms-in-our/

19 Annie Lennon. (14 Iunie 2020). Why Are There So Few Black People in STEM? Disponibil la: https://www.labroots.com/trending/chemistry-and-physics/17877/black-people-stem

20 Sophia este un robot umanoid dezvoltat în 2016 de o companie din Hong Kong şi care a primit cetăţenie din partea Arabiei Saudite.

21 Siri este asistentul virtual dezvoltat de Apple, Alexa de Amazon, Cortana de Microsoft.

22 Pentagonul cerea pentru 2017 bugete de până la 15 miliarde de dolari pentru dezvoltarea de arme pe bază de IA, în 2020 moderându-şi cererea bugetară la 4 miliarde, iar China anunţa intenţia de a investi zeci de miliarde de dolari în cerceratea şi dezvoltarea IA.

23 Spre exemplu, la nivelul UE a fost supus consultării publice până în Februarie 2019 un prim draft de Ghid de etică IA şi este la momentul actual reanalizat.

[Vatra, nr. 3-4/2021]

Lasă un răspuns

Completează mai jos detaliile tale sau dă clic pe un icon pentru a te autentifica:

Logo WordPress.com

Comentezi folosind contul tău WordPress.com. Dezautentificare /  Schimbă )

Fotografie Google

Comentezi folosind contul tău Google. Dezautentificare /  Schimbă )

Poză Twitter

Comentezi folosind contul tău Twitter. Dezautentificare /  Schimbă )

Fotografie Facebook

Comentezi folosind contul tău Facebook. Dezautentificare /  Schimbă )

Conectare la %s

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.