Inteligența artificială și studiile umaniste (IV)

Călin Vlasie

IA lărgește câmpul vizibilului; umanioarele păstrează busola sensului

Umanioare și științele formale! Primele sunt discipline care studiază creațiile, ideile, limbajele și valorile umane prin interpretare critică, nu (în primul rând) prin experiment cantitativ:  limbă & literatură, istorie & arheologie, studii religioase & teologie, arte & media, studii culturale & de gen, studii clasice generale & regionale, comunicare (componenta umanistă: retorică, discurs, semiotică), etică aplicată & estetică aplicată, studii de patrimoniu, umanioare digitale (digital humanities).

Științele formale,  „exactele” – cum sunt popular denumite,  studiază lumea naturală, sistemele abstracte și comportamentul/artefactele prin observație, măsurare, modelare și experiment, urmărind explicații cauzale și predicții: științe naturale,  științe ale Pământului & mediului, științe formale, științe sociale,  științe aplicate / inginerie & tehnologie, sănătate & medicină, agronomie & știința alimentelor. „Umanistele” utilizează deci ca metodă centrală interpretarea critică, subiectivă, pe când cele formale utilizează ca metodă centrală măsurarea/testarea – obiectivă. Există însă și zone hibride: lingvistică computațională, psiholingvistică, arheologie digitală, istorie cantitativă, econometrie culturală.

Inteligență umană și inteligență artificială! Pentru mulți „umaniști” inteligența artificială e dopul care îți sare în nas când deschizi neatent o sticlă de șampanie. Deși fără acel dop „lichidul” bine acidulat nu ar fi putut fermenta. „Umaniștii” cei mai pătimași spun: nu există inteligență artificială câtă vreme e generată tot de inteligența umană. „Formaliștii”, „exacții” dau deoparte imperfecțiunea subiectivității și taie exact, cu laserul, feliile de cunoaștere obiectivă. Seculară bătălie, pasionantă însă, dusă cu toate armele conceptuale.

Invenția roții cred că le-a dat mari satisfacții de gândire presocraticilor în controversele lor cu apărătorii  efuziunilor mitice – ce era „roata”? artefact produs cu ajutorul unei mașini/metodă tehnică  sau o modalitate umană de a produce mișcarea? Hiperumaniștii ancestrali ar fi spus deci: nu există „roată”, ci „formă umană a mișcării”. Hiperumaniștii de azi nu se lasă mai prejos și spun: nu există inteligență artificială, ci doar una umană pentru că în spatele artefactului/ algoritmului e omul! Grea luptă cu termenii, mai de grabă. Acribiile semantice produc derută, se vede.

„Artificială” nu înseamnă „falsă”, ci artefactuală (făcută de om). Termenul e rezonabil dacă îl citim ca „inteligență produsă prin artefacte” și nu ca opusul „adevăratei” inteligențe, cea umană. În practică, prin acest termen denumim sisteme care dobândesc comportamente inteligente (rezolvă sarcini, învață reguli, fac predicții), deși mecanismul lor intern e diferit de cel uman.

Mai jos redau sintetizate notele specifice (ce e tipic) și diferența specifică (ce le separă net). Ce e tipic la inteligența umană: încarnare și homeostazie: corp biologic, nevoi, afecte; mintea e parte dintr-un organism care se reglează singur; învățare cu puține exemple & transfer larg: extrage reguli din date puține, generalizează între domenii; pregătire semantică (grounding): cuvintele sunt ancorate în percepție, acțiune, cultură comună; scopuri autogenerate: motivații, curiozitate, valori; își formulează singură probleme; judecată contextuală: simț al nuanței, normelor, eticii; poate explica „de ce”-ul în limbaj comun; rezistență la schimbare de distribuție: robustețe la situații neprevăzute, improvizație creativă; conștiință fenomenală (subiectivitate): experiență trăită; nu avem astfel de dovezi la IA.

Ce e tipic la inteligența artificială (actuală):

Caracteristicile tipice ale inteligenței artificiale în prezent sunt următoarele: optimizarea pe obiectiv dat: urmărește o funcție de pierdere sau rezultat impus din exterior (nu își stabilește singură un singur obiectiv); Calcul brut și date masive: cantitatea de date, parametri și calcule, creșterea performanței; Învățarea statistică are următoarele caracteristici: corelări foarte puternice care  conduc la predicții utile, dar uneori fără „înțelegere” cauzală; bună la sarcini înguste: excelează la sarcini bine definite; sensibilă atunci când contextul se schimbă; eficiența energetică în general inferioară omului la sarcini comparabile; există însă cercetare pe eficiență (distilare, cuantizare, hardware specializat); interpretabilitate limitată: „de ce a decis așa?” este greu de explicat (cutie neagră) – trebuie însă menționate eforturile curente: mechanistic interpretability, model cards/datasheets, audit algoritmic, cauzalitate (Pearl/Schölkopf).

Diferența specifică (esențialul care le deosebește): originea scopurilor (Omul își generează scopuri, sens și valori; IA primește scopuri și optimizează; pregătirea semnificației (Omul ancorează sensul în corp, lume și cultură; IA operează, de regulă, pe simboluri/ patternuri derivate din date, cu pregătire limitată; generalizarea și robustețea (Omul transferă ușor între domenii, improvizează; IA excelează în distribuția de antrenament, poate eșua neașteptat în afara ei.); normativitate & responsabilitate  (Omul decide în raport cu norme, etică, răspundere; IA nu are normativitate intrinsecă – este aliniată/externalizată (prompturi, delimitări, politici); fenomenologie (Omul are experiență subiectivă; IA produce comportamente fără dovezi de trăire interioară.).

Termenul „IA” devine imprecis când sugerăm că „înțelege”/ „vrea”/ „poate”  ca un om (antropomorfism), când confundăm performanța (scor pe repere) cu înțelegerea (model mental, cauzal), când uităm că sistemul e sociotehnic: rezultatul e suma datelor, obiectivelor, oamenilor din buclă.

Este util să folosim sinonime precum „Inteligența sintetică / computațională / mașinală” pentru a sublinia natura artefactuală, și „Optimizare statistică” pentru a descrie modelele actuale fără a oferi o perspectivă, normă practică (de a vorbi sau măsura corect). Întotdeauna trebuie puse întrebări: „Ce obiectiv optimizează?”, „Pe ce date a fost antrenat?”, „Cum se comportă off-distribution?” și „Poate explica de ce?”. Dacă răspunde corect la astfel de întrebări, este „inteligentă” pentru a face acest lucru. Cu toate acestea, nefiind un om, nu îi atribuim conștiință sau valori proprii. Într-un cuvânt, „inteligență artificială” este acceptabilă ca inteligență de origine artefactuală, deoarece demonstrează comportamente utile și uneori remarcabile. Cu toate acestea, inteligența umană este diferită de inteligență artificială prin originea scopurilor, întemeierea sensului, generalizarea robustă, normativitatea și prezența conștiinței.

Scara modelelor și a puterii de calcul a crescut exponențial după 2019 (parametri, date, costuri de antrenare), iar tendința continuă. Și nu știm ce va urna tehnologic. Este evidentă tendința de creștere în progresie geometrică. Deși inteligența artificială nu poate înlocui interpretarea, poate servi ca o lupă prin care putem găsi lucruri pe care un singur om nu le-ar găsi. Este doar o privire care nu elimină analiza academică a cercetătorului.

Educația se diversifică: alfabetizarea culturală pentru ingineri și alfabetizarea algoritmică pentru umaniști. Cei din urmă învață astfel diferența dintre „adevăr” și „utilitate”, diferența dintre cauzalitate și corelație, diferența dintre pattern și sens și cum se verifică și documentează un mijloc de transmitere a informațiilor, în timp ce primii învață ce poate și nu poate face un model probabilistic. De multă vreme, umanitatea este conștientă de fapt că interpretarea bună este reflectată atât în ​​ceea ce se spune, cât și în modul în care se ajunge la ea. În loc să uniformizeze disciplinele, acest schimb de cunoștințe le face mai ușor de lucrat împreună.     Riscurile sunt reale și concrete, cum ar fi judecăți prezentate cu un ton sigur, confuzia dintre autori și montaj și tendința interpretării „rezultatului” ca pe o „ concluzie ”.

Remediile sunt metodologice, nu providențiale, magice: definirea întrebărilor de la început, controlul datelor, cercetarea surselor independente, jurnalul de pași și evaluarea critică. „Ce înseamnă să înțelegi” se pune și în relația dintre umanioare și inteligență artificială – o întrebare obișnuită în cuvinte noi. Pentru umaniști, înțelegerea nu se limitează la identificarea unor modele; ea implică factori precum motivațiile, valorile și rezultatele. Umanistul stabilește ce merită parcurs, de ce și cu ce responsabilități, deoarece IA poate cartografia tiparele.

IA nu înlocuiește interpretarea, dar îi lărgește raza de acțiune: vede tipare la scară pe care niciun cercetător nu le poate parcurge singur. Umanioarele oferă însă busola: stabilesc întrebările, criteriile, normele și responsabilitatea. Adevărul nu este doar „ce iese la scor”, ci cum am ajuns acolo.

Concluzia rezonabilă e una de colaborare critică. IA extinde raza de acțiune a științelor umaniste și le oferă instrumente; științele umaniste ancorează IA într-o cultură a sensului și a măsurii. IA lărgește câmpul vizibilului; umanioarele păstrează busola sensului.

Bibliografie orientativă

Cadre teoretice & metodologii (umanioare digitale):

Franco Moretti, Distant Reading, Verso, 2013 – canonul „lecturii de la distanță” și mizele ei pentru istoria literară;

Ted Underwood, Distant Horizons, The University of Chicago Press, 2019 – ce pot (și ce nu pot) modelele statistice în critica literară; Andrew Piper, Enumerations, The University of Chicago Press, 2018 – cifrele și modelele stilistice în literatură; Matthew K. Gold & Lauren F. Klein (eds.), Debates in the Digital Humanities, Minnesota, 2012/2016/2019 – panoramă critică a domeniului; Johanna Drucker, Graphesis, Harvard, 2014 – cum influențează vizualul/interfețele producerea sensului; Lev Manovich, Cultural Analytics, The MIT Press, 2020 – analiză la scară mare a culturii vizuale/textuale.

Legea U.E.privind I.A., 13 martie 2024 – https://www.juridice.ro/689398/legea-ue-privind-inteligenta-artificiala.html, https://www.europarl.europa.eu/topics/ro/article/20230601STO93804/legea-ue-privind-ia-prima-reglementare-a-inteligentei-artificiale

Roxana Petrariu, Instrumente de reglementare în privința inteligenței artificiale în sistemul judiciar. Pași către un drept al inteligenței artificiale, 23 aprilie 2025  – https://www.juridice.ro/779674/instrumente-de-reglementare-in-privinta-inteligentei-artificiale-in-sistemul-judiciar-pasi-catre-un-drept-al-inteligentei-artificiale.html

Mircea Duțu, Pentru o strategie juridică națională privind IA, 23.06.2025 – https://www.juridice.ro/essentials/10303/pentru-o-strategie-juridica-nationala-privind-ia

Practică analitică (texte + cod):

Matthew L. Jockers, Text Analysis with R for Students of Literature (2nd ed.), Springer, 2017 – ghid practic pentru corpusuri literare; Shawn Graham, Ian Milligan, Scott Weingart, Exploring Big Historical Data: The Historian’s Macroscope, Imperial College Press, 2015 – intrare prietenoasă pentru istorici (topic modeling, rețele); Sculley & Pasanek, „Meaning and Mining”, în Literary Studies in the Digital Age, MLA, 2011 – limitările interpretative ale mining-ului pe texte.

Etică, date, bias, societate:

Safiya Umoja Noble, Algorithms of Oppression, NYU Press, 2018 – cum reproduc căutările online bias-uri sociale; Ruha Benjamin, Race After Technology, Polity, 2019 – „New Jim Code”: tehnologie & inegalitate; Kate Crawford, Atlas of AI, Yale, 2021 – resurse, muncă, geopolitică și costurile invizibile ale IA; Lauren Klein & Catherine D’Ignazio, Data Feminism, MIT, 2020 – un cadru critic pentru colectarea/interpretarea datelor; Helen Nissenbaum, Privacy in Context, Stanford, 2010 – integritatea contextuală, esențială pentru arhive/colecții; Luciano Floridi, The Ethics of Information, Oxford, 2013; The Fourth Revolution, Oxford, 2014 – fundamente pentru etica informației.

Critica IA (modele mari, transparență):

Emily M. Bender, Timnit Gebru, et al., „On the Dangers of Stochastic Parrots”, FAccT, 2021 – limitele modelelor mari de limbaj și riscurile lor; Margaret Mitchell et al., „Model Cards for Model Reporting”, FAT*, 2019 – cum documentăm responsabil modelele; Timnit Gebru et al., „Datasheets for Datasets”, Communications of the ACM, 2021 – standard pentru documentarea seturilor de date.

Hermeneutici, filozofie a tehnologiei (pentru „de ce”-ul interpretării):

Katherine Hayles, How We Think, The University of Chicago Press, 2012 – cognitiv, digital și lectura umanistă; Alan Liu, The Laws of Cool, The University of Chicago Press, 2004; Friending the Past, The University of Chicago Press, 2018 – umanioare, industrie culturală, rețele; Yuk Hui, On the Existence of Digital Objects, University of Minnesota Press, 2016 – ontologia obiectului digital.

Patrimoniu, arhive, conservare:

Trevor Owens, The Theory and Craft of Digital Preservation, Johns Hopkins, 2018 – principii solide pentru arhive digitale umaniste; Johanna Drucker, „Humanities Approaches to Graphical Display”, Digital Humanities Quarterly, 2011 –vizualizări ca argumente, nu doar „grafică”.

*

Iulian Boldea

Inteligența Artificială în Noul Ev Media

Inteligența artificială este un sistem de inteligență artificială capabil să genereze text, imagini, muzică, programe de calculator și alte funcții media pe baza anumitor instrucțiuni introduse de un utilizator uman, după cum afirmă Kurzweil.1 Cercetătorul consideră că IA a fost creată cu scopul de a imita imaginația și creativitatea umană, utilizând anumite procese, tehnici, modele avansate de învățare automată, asimilând modele și relații din datele și informațiile pe care le-a asimilat. Aceeași idee este repetată de Penrose, care a observat că modelele de inteligență artificială sunt programe care analizează datele într-un mod modelat și predictiv, utilizând informațiile pentru a produce date noi cu caracteristici similare.2 În acest fel, funcționarea internă a instrumentelor individuale de inteligență artificială diferă oarecum, bazându-se pe rețele generative adversariale (GAN) pentru a crea exemple, module sau proiecții noi, generând conținut. În prezent, inteligența artificială este aplicată cel mai eficient în marketing și vânzări, operațiuni cu clienții, precum și în proiectarea, cercetarea și dezvoltarea de software, fiind utilizată în principal pentru a economisi timp și resurse în generarea de postări pe rețelele sociale, articole, grafice și alte tipuri de conținut. Se poate spune că tehnologia IA are o aplicabilitate mai largă în domenii cu resurse practice și creative decât în alte domenii, fiind adoptată de acele domenii în care conținutul scris este necesar. Desigur, inteligența artificială nu poate depăși creativitatea umană în aspectele sale emoționale și sentimentale, așa cum se manifestă în creațiile literare și artistice (poezii, texte dramatice, cântece, scenarii, rapoarte etc.). Se poate spune că narațiunile generate de inteligența artificială și generatoarele de artă bazate pe IA sunt sancționate de artiști și creatori. De exemplu, muzicianul Nick Cave a considerat că o melodie creată de ChatGPT în stilul său este pur și simplu o batjocură la adresa a ceea ce înseamnă să fii om, așa cum a răspuns unui fan pe blogul său, The Red Hand Files. Cele mai importante instrumente generative de IA sunt ChatGPT, Notion, Microsoft 365 Copilot, Midjourney, GitHub Copilot, YouChat, Chatsonic, GrowthBar, Scribe și GhostWryter. De la revoluția industrială până la inventarea internetului și a datelor 5G, au existat susținători și detractori, în timp ce tehnologia IA a devenit o parte integrantă a peisajului industriei digitale. În viitor, tehnologiile de inteligență artificială vor avea ocazia să devină din ce în ce mai sofisticate, în funcție de alegerile utilizatorilor care beneficiază de serviciile lor, cu tot ce implică acest lucru pentru consultanța în domeniul IA în generarea de conținut. Instrumentele de inteligență artificială au avantaje și dezavantaje, iar testul timpului va decide viabilitatea și utilitatea lor. Un aspect important este că inteligența artificială nu poate fi ignorată, întrucât întreprinderile adoptă din ce în ce mai mult tehnologia IA, care este utilizată pentru sarcini care pot fi îndeplinite și de oameni, prin urmare nu este o teamă complet nejustificată că inteligența artificială, aflată acum la început, este pe punctul de a înlocui lucrătorii umani. Într-o altă configurație conceptuală, se poate spune că există o similitudine între configurațiile inteligenței artificiale și reprezentările anarhetipale teoretizate de Corin Braga, care subliniază că anarhetipul este „un arhetip anarhic, fragmentat sau explodat”.3 Folosind o analogie cosmologică, autorul compară arhetipul anarhic cu „praful galactic înainte de a se coagula într-un sistem solar sau cu norul de resturi născut dintr-o explozie de supernovă”4, cu precizarea importantă că „haosul anarhic nu implică dispariția completă a arhetipurilor, ci doar coexistența incoerentă a fragmentelor și reziduurilor arhetipurilor, la fel cum nebuloasa rezultată din dispariția unei supernove este compusă din gaz și praf provenite de la steaua originală”5. Corin Braga explică și interpretează mai multe „metafore schematice” pe care le dedică arhetipului anarhic (grupul, jocul de domino, jocul LEGO, rețeaua micelială), dezvăluind posibilitățile arhetipale anarhice în sfera mecanismelor creative sau a genurilor marginale. Pornind de la această idee, inteligența artificială poate fi asemănată cu reprezentările anarhetipale, deoarece ambele încorporează mecanisme creative. Aplicațiile și programele de IA extrag informații, date, automatisme și reflexe din universul vast și complex al internetului, unde creatul și necreatul, artificiile tehnice și mecanismele profunde ale unui text coexistă cu un alt spațiu de simulacre, simulări și reprezentări fictive pe care ființele umane trebuie să le monitorizeze cu atenție și discernământ. Absent din scrierea generată de IA este sinele uman: conștiința interioară, fluxul subtil de emoții și reflecții din care izvorăsc operele literare originale, ecoul designului complex și evaziv al universului. Un dezavantaj major al limbajelor de inteligență artificială este modelul automatizat al proceselor pe care le inițiază și coordonează, deoarece operațiunile implicate în configurarea structurilor discursive sunt mecanice, bazate pe tehnologie de vârf, fără implicarea dimensiunilor afective-raționale sau morale, rafinament algoritmic continuu și artificial, care nu ignoră profunzimea, ambiguitățile sau nuanțele. Prin urmare, operele literare originale izvorăsc din fluența emoțională, ambiguitatea imaginativă și metafora, în timp ce textele generate de IA rămân în continuare referențiale și denotative, limitate constant de absența experienței și a individualității creative. Din această perspectivă, IA este departe de a încorpora esența intimității umane, fiind incapabilă să circumscrie vasta întindere a experienței umane, cu toate provocările, facilitățile și avantajele pe care le conferă cunoașterii umane, în special în domeniile tehnologiei informației, ingineriei, medicinei și artei. În sfera artei, fotografiei și filmului, IA poate retușa imagini și genera simulacre ale realității, cu numeroase conexiuni între diferite sfere ale minții noastre, dar nu reușește să reconfigureze condiția umană, chimia intens individualizată a gândirii, scrierii și limbajului nostru literar. Identitatea sa este una împrumutată, alcătuită din multe fețe, laturi și reprezentări preluate din vasta sferă a realității virtuale. Literatura generată de programe trebuie percepută în mod adecvat, cu luciditate și moderație, ținând seama de riscurile, avantajele și disproporțiile din funcționarea sa. Kurzweil a observat că domeniul traducerii pare să fie marcat în mod constant de inteligența artificială, nu numai în ceea ce privește traducerile de cărți academice, științifice sau tehnice, ci chiar și în traducerile din domeniul literaturii, unde performanța traducerii se concentrează pe utilizarea corectă a limbajului, vocabularului, dialogului și descrierii.6 Chiar dacă amprenta stilistică, expresivitatea și inflexiunile vocii profunde ale autorului rămân netraductibile de instrumentele de IA, există un risc vizibil de standardizare a versiunii traduse și a autorilor: acest lucru a generat nemulțumiri în rândul unor editori, precum Asociația Editorilor Danezi, care solicită ca traducerile să fie realizate de traducători, fără interferența aplicațiilor de IA. De fapt, este bine cunoscut faptul că literatura a suferit numeroase schimbări de paradigmă, în funcție de schimbările tehnologice, culturale și sociale. În Moartea autorului (1967)7, Roland Barthes contestă poziția centrală a autorului în crearea și interpretarea textelor literare. Accentul textualității se mută de la autor la cititor, printr-o grilă de deconstrucție, care sugerează chiar dispariția simbolică a literaturii. Jorge Luis Borges, într-o narațiune alegorică intitulată Pierre Menard, autorul lui Don Quijote8, prezintă ideea că semnificațiile textelor literare pot fi configurate și reconfigurate de cititori, independent de intenția autorului, devenind astfel pretexte pentru interpretare. De asemenea, într-o altă narațiune, Tlön, Uqbar, Orbis Tertius9, scriitorul sugerează că ficțiunea poate deveni realitate, întrucât universul capătă o arhitectură ficțională, imaginarul și realul fiind ca niște vase comunicante. Pentru David Shields10, literatura se îndreaptă către alte forme de expresie, în care ficțiunea și non-ficțiunea se intersectează prin prisma autenticității și a transformărilor din sfera discursului literar. Scriitorul și eseistul Jonathan Franzen dezvăluie, în colecția sa de eseuri The End of the End of the World11, că progresul tehnologic și apariția reprezentărilor digitale afectează modul în care cititorii percep literatura, până la punctul în care putem vorbi chiar despre sfârșitul literaturii, din cauza diluării interesului public și a banalizării operelor literare, care au fost adaptate și standardizate dintr-o perspectivă comercială, cu standarde estetice mult diminuate. În același timp, Milan Kundera deplânge soarta literaturii în fața proliferării resurselor tehnologice și a aplicațiilor media online, operele literare fiind în pericol de a fi complet înglobate de divertisment și de gustul public precar, cu riscul de a abandona resursele esențiale ale literaturii.12 Dintr-un alt punct de vedere, Jean-Michel Rabaté se referă la „criza autorității narative”13 prin care operele literare își pierd relevanța esențială, aceea de a explora identitatea profundă a ființei umane, care a fost subminată în postmodernism de fragmentare și de dizolvarea centrului. Pe de altă parte, acum, în era globalizării și a interculturalității, literatura însăși se află într-un paradigma de reînnoire în care narațiunile digitale și practicile discursive interactive participă la o realitate virtuală complexă. Aceasta implică autori, cititori și critici literari în structura conexiunilor multisenzoriale pe care inteligența artificială le presupune, ca o explorare a diverselor lumi ficționale prin practici, programe, aplicații sau forme discursive de o diversitate uimitoare, bazate pe interacțiune și diversitate vizuală (podcasturi, cărți audio, romane grafice, literatură transmedia, benzi desenate, ficțiune hipertextuală). Cu alte cuvinte, dispozitive precum Kindle au caracteristici unice, cum ar fi senzori biometrici și de recunoaștere facială, precum și un program de IA, care va permite evaluarea impactului fiecărei propoziții sau pasaj din carte asupra cititorului și evaluarea gradului său de satisfacție. Drept urmare, sistemul de IA va sugera cărți despre care știe că vă vor satisface sau vă vor interesa: „Impactul asupra științelor exacte (matematică, astronomie, fizică, chimie, biologie) va fi direct, prin dezvoltarea de echipamente informatice și experimentale din ce în ce mai complexe și mai puternice. Dar domeniul cel mai spectaculos și accesibil, deoarece ne afectează pe toți în ceea ce privește calitatea vieții, este medicina. S-au dezvoltat noi domenii ale ingineriei, cum ar fi ingineria medicală, care formează ingineri pentru proiectarea, fabricarea și întreținerea echipamentelor medicale. Aceștia au proiectat și construit echipamente din ce în ce mai sofisticate, bazate pe noi principii fizice, cele mai relevante fiind cele din domeniul imagisticii și al roboticii chirurgicale”14. Senzorii biometrici de pe Kindle colectează date de la utilizatori în timp ce aceștia citesc, cărțile citind cititorii, după cum spune Yuval Noah Harari: „Noul Kindle va fi echipat cu senzori biometrici. Acesta va cunoaște ritmul cardiac al cititorului pe măsură ce acesta citește fiecare pagină. Va ști ce îl face să râdă, ce îl face să plângă și ce îl face să se supere. În curând, cărțile te vor citi pe tine în timp ce le citești. Și chiar dacă tu vei uita mare parte din ceea ce citești, Amazon nu va uita niciodată nimic. Cu aceste date, Amazon ar putea alege cărți pentru tine cu o precizie uimitoare. De asemenea, va ști exact cine ești, cum să-ți atragă atenția și cum să te plictisească.”15 Expresie a transumanismului tehnologic, discursul digital se distinge prin natura sa simulativă, prin capacitatea sa de a imita procese, mecanisme cognitive și relee ideologice. Cu toate acestea, el nu poate genera un profil de identitate individuală, discernământ moral, sensibilitate unică sau individualizare emoțională. Bazată pe interacțiunea algoritmilor, inteligența artificială nu are capacitatea de a empatiza, de a se armoniza emoțional cu ființele umane, de a fi animată de conștiință, individualitate emoțională sau liber arbitru. Cu toate acestea, viitorul culturii și literaturii în era digitală va fi influențat de noile tehnologii, în special de inteligența artificială, care poate genera conținut, oferi sugestii algoritmice sau traduceri automate, chiar dacă nu ne poate oferi inflexiunile vocii umane. Ceea ce s-a schimbat și continuă să se schimbe rapid este comunicarea, care a profitat de schimbările digitale spectaculoase în dispozitive, platforme și rețele online, de la Kindle, Wattpad și podcasturi la povestirea digitală, marketingul pe rețelele sociale, SEO literar și creatorii de conținut, cu posibilitatea unei diseminări rapide și globale prin cloud sau streaming. De asemenea, sunt relevante strategiile de reprezentare și promovare online a culturii și literaturii (publicarea pe mai multe platforme, brandingul autorului etc.), care vor putea trasa coordonatele unui depozit digital reprezentativ. Trăind într-o eră a simulării, deconstrucționismului și globalizării, realizăm, alături de Baudrillard, că totul devine dificil de decis într-un univers de semne și coduri care se înlocuiesc și se interconectează constant între ele. Judecățile morale și estetice sunt diminuate în fața unui sistem de semne a cărui hegemonie o simțim acut: „Era simulării este inaugurată pretutindeni de comutabilitatea termenilor anterior contradictorii sau dialectic opuși. Pretutindeni găsim aceeași „geneză a simulacrelor”: comutabilitatea frumosului și urâtului în modă, a stângii și dreptei în politică, a adevăratului și falsului în toate mesajele mass-media, a utilului și inutilului la nivelul obiectelor, a naturii și culturii la fiecare nivel de semnificație. Toate marile criterii umaniste de valoare – întreaga civilizație a judecății morale, estetice și practice – dispar în sistemul nostru de imagini și semne. Totul devine indecidabil; acesta este efectul caracteristic al dominației codului, care se bazează pretutindeni pe principiul neutralizării și indiferenței. Aceasta este orgia generalizată a sistemului, nu orgia prostituției, ci orgia substituției și comutării.”16 Simulările și simulacrele generate de inteligența artificială conduc la un fel de serializare a textelor literare, în care codurile și algoritmii pot construi și deconstrui cu tenacitate lumi fictive care sunt, totuși, lipsite de personalitate, individualitate și identitate afectiv-emoțională. Scrierea în sine este metabolizarea experiențelor pe care inteligența artificială nu le poate asimila, deoarece se bazează pe algoritmizare, pe proliferarea imaginilor și simbolurilor. Algoritmii statistici generează nu numai modele și eșantioane de gândire, ci și construcții ideologice, pe care învățarea automată le va pune în circulație și le va disemina în scopuri propagandistice pentru a atinge așa-numita post-adevăr, cu valoare epistemică relativă. Activitățile de cercetare și documentare pot fi valorificate prin intermediul inteligenței artificiale, care beneficiază de algoritmi de învățare profundă, chiar dacă manipularea de tip AI, cu intrările și ieșirile sale, cu posibilitățile sale infinite de procesare și permutare, nu poate avea atributele unui ființă umană (emoții, capacitatea de a visa, de a simți cu sufletul etc.). Un alt fapt relevant este că IA nu poate genera idei filosofice, nu poate reflecta, nu poate gândi, în ciuda conexiunilor sale, a modului său de prezentare a informațiilor, a datelor, a conexiunilor deja prezente în Big Data, la care are acces și din care extrage informații. Cu toate acestea, trebuie să ne întrebăm cum putem folosi beneficiile inteligenței artificiale fără a fi copleșiți de cantitatea de informații, pe care le putem percepe ca instrumente digitale valide de cunoaștere, capabile să ne ajute să înțelegem mai bine propriul nostru univers interior, arhitectura complexă a ființei noastre.

Bibliografie selectivă

Banabic, Dorel, Evoluția tehnicii și a tehnologiilor de la prima la a patra revoluție industrială și impactul   lor social. Discurs de recepție, in Academica, nr. 10-11, 2018, p. 121-153.

Barthes, Roland, The Death of the Author (Trans: S. Heath), in Image Music Text, Fontana

Press, London 1977.

Baudrillard, Jean, Symbolic Exchange and Death, translated by Iain Hamilton Grant, SAGE

Publications, London, 1993.

Borges, Jorge Luis, Pierre Menard, Author of the Quixote, in Collected Fictions, Penguin

Books, London, 2000.

Borges, Jorge Luis, Tlön, Uqbar, Orbis Tertius, in Collected Fictions, Penguin Books,

London, 2000.

Braga, Corin, Anarhetipul, in Anarhetipuri. Reevaluarea unor forme  genuri literare marginale,

Tracus Arte, București, 2024, p. 281-338.

Baudrillard, Jean, Symbolic Exchange and Death, Sage Publications, London, 1993.

Dennett, Daniel, Consciousness Explained, The Penguin Press, London, 1991.

Franzen, Jonathan, The End of the End of the World, Farrar, Straus and Giroux, New York,

2018.

Harari, Yuval Noah, 21 Lessons for the 21st Century, Vintage Publishing, New York, 2018.

Kundera, Milan, Art of the Novel, Harper Perennial, New York, 2003, p. 76.

Kurzweil, Ray, The Age of Spiritual Machines, Viking Press, New York, 1999.

Penrose, Roger, The Emperor’s New Mind: Concerning Computer, Minds and The Laws

Physics, Oxford University Press, Oxford, 1989.

Rabaté, Jean-Michel, The Pathos of Distance: Affects of the Moderns by Jean-Michel Rabaté,

Johns Hopkins University Press, Baltimore, 2017.

Shields, David, Reality Hunger: A Manifesto, Vintage, New York,2011.

Note

[1] Ray Kurzweil, The Age of Spiritual Machines, Viking Press, New York, 1999, p. 13.

2 Roger Penrose, The Emperor’s New Mind: Concerning Computer, Minds and The Laws of Physics, Oxford

University Press, Oxford, 1989, p. 106.

3Corin Braga, Anarhetipul [The Anarchetype], in Corin Braga, Anarhetipuri. Reevaluarea unor forme şi genuri literare marginale [Anarchetypes. Reassessing Marginal Literary Forms and Genres], Tracus Arte, București, 2024, p. 23 (our translation – I.B.).

4Ibidem, p. 25.

5Ibidem, p. 26.

6Ray Kurzweil, The Age of Spiritual Machines, Viking Press, New York, p. 47.

7Roland Barthes, The Death of the Author (Trans: S. Heath), in Image Music Text, Fontana Press, London 1977, pp.142-148.

8Jorge Luis Borges, Pierre Menard, Author of the Quixote, in Collected Fictions, Penguin Books, London, 2000.

9Jorge Luis Borges, Tlön, Uqbar, Orbis Tertius, in Collected Fictions, Penguin Books, London, 2000.

10David Shields, Reality Hunger: A Manifesto,Vintage, New York,2011.

11Jonathan Franzen, The End of the End of the World, Farrar, Straus and Giroux, New York, 2018.

12Milan Kundera, Art of the Novel, Harper Perennial, New York, 2003, p. 76.

13Jean-Michel Rabaté, The Pathos of Distance: Affects of the Moderns by Jean-Michel Rabaté, Johns Hopkins University Press, Baltimore, 2017, p. 209.

14Dorel Banabic, Evoluţia tehnicii şi a tehnologiilor de la prima la a patra revoluţie industrială şi impactul lor social. Discurs de recepţie [The Evolution of Techniques and Technologies From the First to the Fourth Industrial Revolution and Their Social Impact. Reception Speech], in Academica, nr. 10-11, 2018, p. 24 (our translation – I.B.)

15Yuval Noah Harari, 21 Lessons for the 21st Century, Vintage Publishing, New York, 2018, p. 159.

16Jean Baudrillard, Symbolic Exchange and Death, translated by Iain Hamilton Grant, SAGE Publications, London, 1993, p. 27.

*

Adrian Dinu Rachieru

IA, între temeri, speranțe, riscuri și costuri

Apariția I.A. ar fi comparabilă, spunea Geoffrey Hinton (să reținem: laureat Nobel!), cu Revoluția industrială; firește, nu în sensul puterii fizice. Sub un nume impropriu, simulând inteligența (nonmentală), I.A. nu este un concept abstract, ci o realitate care îngrijorează, urcând impetuos pe scala anxietăților. Într-o lume asaltată de riscuri, știm prea bine.

Ar fi necesar, credem, să aruncăm, fie și fugitiv, o privire în peisaj. Fragmentarismul postmodern, întreținând relativismul cultural și agitația entropică, face din lumea de azi, interconectată, un angrenaj planetar. Paradoxul e că mondializarea mediată la care asistăm, „beneficiind” de o frenetică exploatare comercială nu iese din ceea ce John B. Thompson numea, acuzator, „miopia prezentului”. Din păcate, responsabilitatea globală, conștiința acută a interdependențelor se însoțesc cu „golirea etică a vieții publice”, cu deșertificarea morală. Basarab Nicolescu ne reamintea că epoca pe care o traversăm poate fi definită printr-un triptic conceptual: anthropocen, panterorism și transumanism. Dacă anthropocenul desemnează o nouă eră geologică (specia umană devenind forța geofizică dominantă, riscând propria-i dispariție), dacă transumanismul ascunde pericolul apariției, prin „selecție tehnologică”, a omului-mașină („un Dumnezeu-proteză”), panterorismul ar exprima o nouă formă de terorism, „fără nici o legătură reală cu vreo religie sau ideologie”, instaurând insecuritatea globală.

Spectrul pericolelor în lumea de azi prezintă o încărcată agendă crizistă. În numele biotehnologiei, marele proiect al transumanismului, ca „ideologie ascunsă”, râvnește eliminarea transcendenței, omul dorindu-se egalul lui Dumnezeu. Noua biserică Way of the Future, sub șefia unui inginer expert în tehnologie robotică, A. Levandovski, pretinde, în acest război al inteligențelor, adorarea unei divinități create de inteligența artificială. Reacțiile n-au întârziat și cartea părintelui Jean Boboc (Le transhumanisme décrypté, Paris, 2017) se voia un demers demistificator: transumanii nu doar că „transcend biologia”, cum susține futuristul Ray Kurzweil, ci atentează asupra religiilor constituite, anulând „orice urmă de transcendență”.

Tehnologia informației cunoaște o dezvoltare malefică și haotică (vezi „halda Internetului”) iar a patra revoluție tehnologică elimină din ecuație tocmai omul. Încât, decretând „esența malefică a tehnicii planetare”, doar reafirmarea metafizicii înseamnă șansa re-umanizării societății, contracarând „explozia malignă a virtualismului planetar” prin reglementări dure. Metaversul, „ca surogat servit pe post de viață reală” este o noțiune substitutivă; instituind un univers paralel (virtual), se încearcă resetarea lumii în conformitate cu delirul ideologic de tip progresist, aruncând la tomberoanele Istoriei o solidă tradiție spirituală.

Analiștii media, atenți la consecințele revoluției digitale, abandonând viziunea euforizantă, au avertizat asupra patologiei psiho-sociale a idolatrizatei „culturi de monitor”. „A treia vârstă a mass-mediei” șterge frontiera dintre viața online și viața reală. Noile tehnologii bulversează raportul nostru cu realitatea. Se impune să ne protejăm de acest bruiaj permanent, cultivând, ca antidot, o „veritabilă ecologie a spiritului maltratat”. Patologia New Media, devenind un „elixir electronic”, procură voluptăți virtuale și senzații vizuale, exhibând viața privată, dislocând valorile și tradițiile sedimentate. Flirtul web înlocuiește nevoia unor întâlniri reale. „Accesul” la lume, ideologia divertismentului (infantilizare, starizare, publicizare), identitatea „de piață”, dorința de extimitate, revărsată în spațiul public, ne aruncă în insecuritate. Internetul, un mediu în extensie, cu frontiere deschise și facilități magice, pare un Rai tangibil; el ne modelează și ne redefinește, fie elogiat ca șansă de spiritualizare, fie deplâns prin simptomatologie ori chiar demonizat, sub suspiciunile de control secret. Oricum, acroșanta „butaforie electronică”, prin imersiune și interactivitate, creează dependență. Societatea mediatică ne invită la evaziune, plonjând în spațiul virtual, „dematerializat”, rupându-ne de problemele și constrângerile prezentului, părăsind realitatea ternă, stresantă, depresivă. Cu efecte deloc neglijabile: desensibilizare, lexic sărăcit, identități fictive (multiple), o viață paralelă într-o lume paralelă prin prizonieratul virtualului. Riscând să ne pierdem busola în „oceanul virtual”.

Universul digitalic oferă, așadar, o periculoasă libertate „fără margini”, cu efecte patologice, bulversând identitatea socială, adâncind prăpastia dintre viața adevărată și viața online. Ce-ar fi de făcut, ne întrebăm, pentru a ne proteja de această „bigamie virtuală” (vieți paralele), pentru a ne cultiva „anticorpii” într-o eficientă pedagogie media? Adică „o veritabilă ecologie a spiritului maltratat de mirajele ecranelor”, într-un spațiu mental supus torentului informațional, recomandând dieta digitală. Noua paradigmă educațională, răvășită de bufeuri reformiste, înfruntând infobezitatea și propunându-și dezintoxicarea (nomofobie), va trebui să se adapteze provocărilor Inteligenței artificiale (ca Inteligență fără Conștiință).

Doar că „inteligența non-umană evoluează”, ne avertiza Yuval Noah Harari, oferind, în Nexus, o istorie a rețelelor informaționale. Și atunci, ne întrebăm: I.A. ce va face? Fiindcă I.A. nu este doar un instrument, ci un agent; mai mult, un agent autonom, preciza Harari. Dacă I.A. poate produce I.A., implicându-se în toate domeniile, pericolul existențial nu poate fi subestimat. Deocamdată, vorbim despre o etapă în dezvoltarea informaticii, invocăm pericole și speranțe într-o lume interconectată. Algoritmii I.A. (complecși) ne-au făcut leneși, ne „hrănim” cu informații, așa-zisa rețea neuronală (un model matematic) primește instrucțiuni din exterior. Dar provocările viitoare? Riscurile se cuvin reevaluate, zic experții.

Să mai notăm că omul nou, ca proiect ideologic, rod al ingineriei sociale nu este „omul îmbunătățit” (în sens teologic); adică ne-împlinit, nemulțumit, lucrând cu sine în numele perfecționismului, ca imbold lăuntric, ascensional, pe scara evoluției naturale. El devine un „om augmentat”; adică protezat, cobai al biotehnologiilor / inginerie genetică, massificat și anonimizat. Până la urmă, inutil, deci (de) înlocuit. Mintea se exteriorizează, devine – cum spunea cineva – un serviciu „de catering”. I.A., ca entitate non-umană, depășește inteligența umană. E drept, o inteligență fără conștiință, generând texte. Față de I.N. (inteligența naturală) care, după D. Goleman este rațională, emoțională și socială, I.A. nu este (deocamdată?) un agent conștient, nu are emoții, nu manifestă empatie. Impresionează prin performanțe lingvistice și jocuri de strategie, oferă sfaturi și distorsionări fără o conștientizare reală. Poate fi îmblânzită I.A.? În „minunata lume nouă” poate fi ținută sub control? Fiindcă asta e de fapt marea întrebare. Dacă I.A. poate produce idei și lua decizii, apocalipsa I.A. e aproape; nu e vorba de lamentări exagerate câtă vreme omenirea, trecută prin lecții tragice (Istoria fiind un „abator”), nu se trezește, regândind însuși destinul speciei.

Ce face lumea umanioarelor? C.P. Snow, ne amintim, vorbea, cu decenii în urmă, despre cele două culturi, între limbajul științific și cel al umanioarelor căscându-se o falie. Care s-a adâncit odată cu prăpastia digitală. Dacă I.A. aduce indiscutabile beneficii (medicină, inginerie, servicii), intruziunea în sfera creativă produce reacții anxioase. Ca partener creativ, I.A. (ca autor) concurează „autorii umani”. Fără angoase etice sau filozofarde, ștergând, prin imitații și dezinformare, granițele dintre realitate și fals, suspendând chestiuni delicate, precum copyright-ul sau furtul intelectual. Rămâne salvatoare (pentru noi, „autorii umani”) pecetea stilistică, cea care asigură identitatea.

Dar n-ar trebui să ignorăm, dincolo de spaima poeticească a unora, consecințele sociologice ale invaziei I.A. Sunt riscuri (dezinformare, manipulare, insecuritate) și costuri (excluderea socială a celor inadaptați, recalificare). Idolatria tehnotronică merge în paralel cu excluderea digitală a unor indivizi și comunități, cu „zombificarea” educației, cu regresul intelectual și amorțirea spiritului critic. Ca sistem socio-tehnologic, inteligența agregată, în perfecționare continuă, pare să scape de sub control; mai rău, pare să preia controlul. Se organizează simpozioane și dezbateri (științifice, filosofice, teologice), se inventariază pericolele (de la supravegherea extinsă la îngrădirea libertăților într-un stat tiranic), se discută abundent. Ce va fi? Cum va fi? Iată o întrebare deschisă, cei de după noi se vor confrunta și vor trebui să rezolve, gândind critic și creativ, o avalanșă de probleme grave. Altminteri, apocalipsa I.A. bate la ușă…

*

Georgeta Moarcăs

ChatGPT și starea de minorat

Pornind de la recenta răspândire și utilizare a Large Language Models în mediul universitar, mai ales a modelului ChatGPT, pentru a mă referi doar la mediul cunoscut și la LLM-ul cel mai utilizat de studenți pentru scrierea eseurilor sau lucrărilor de licență, de unde și nominalizarea în titlul articolului de față, îmi propun să meditez pe marginea câtorva întrebări legate de semnificațiile acestei interacțiuni care are ca efect major delegarea parțială sau totală a creativității. Această delegare se reflectă mai ales în problema autorității și autorului, a experienței personale, a autenticității și mai presus de toate a stilului, esențial în domeniul umanist. Ramificațiile mai largi includ șubrezirea gândirii critice, chestionarea ideii de „nou” și „original”, monopolul pe care aceste LLM-uri îl instituie treptat asupra cunoașterii și producerii de texte.

Ipoteza de la care plec este că deși interfața dialogică a LLM-urilor (ChatGPT, ChatGPT Edu, Claude, Gemini și probabil și a altora) se prezintă drept un „partener de brainstorming” sau un instrument de cunoaștere, de fapt relația utilizatorului cu ele este problematică din cauza efectelor pe care le generează. Conștientizarea acestor efecte nu schimbă radical raportul dintre utilizator și LLM, în măsura în care LLM-ul are tendința de a substitui diversitatea punctelor de vedere cu un discurs mediu.

În primul rând putem vorbi despre o falsă autoritate a LLM-ului, dată de posibilitatea programului de a avea acces la o imensă bază de date și de a identifica modele de gândire și raționament pe care le folosește apoi pentru a-și recompune răspunsurile în funcție de prompturile primite. Accesul limitat în timp poate atrage o failibilitate parțială a modelului: ChatGPT4 are ultima updatare cu informație în octombrie 2023 în timp ce ChatGPT 5 are ultimul update la 1 octombrie 2024. El este conjugat și cu o limitare a tipului de texte pe care a fost antrenat modelul, rezultând, în termenii unei critici culturale discutate de Deepak Varuvel Dennison într-un articol recent în The Guardian, „What AI doesn’t know: we could be creating a global «knowledge collapse»”, „sisteme care par neutre dar sunt departe de a fi astfel” (Denisson, 2025). Tânărul cercetător al Universității Cornell a observat că „cele mai populare modele privilegiază modurile dominante ale cunoașterii (tipic occidentale și instituționale) în timp ce marginalizează alternativele, în special cele codificate în tradițiile orale, cuprinse în practici și limbaje considerate «low-resource» în lumea calculatoarelor.” (ibidem)

Criticii autorității pretinse de LLM-uri i se pot asocia și observațiile legate de lipsa de context în care poate fi transmisă sau facilitată experiența. Între LLM și utilizator nu poate avea loc un proces de transmitere a experienței întrucât LLM-ul nu oferă altceva decât informații cu valoare de numitor comun. La întrebarea „În ce mod poți vorbi despre experiența ta?”, ChatGPT 4 răspunde: „Epistemologic: «experiența» mea e o formă de experiență colectivă mediată: o agregare a experiențelor umane învățate din texte, conversii și date. Într‑un sens, ceea ce ofer eu este un fel de «ecou al experienței umane colective», reinterpretat prin logică și limbaj probabilistic.” (s.m.) Într-o altă sesiune de interogare, adresând chiar tendința utilizatorilor de a umaniza interacțiunea cu LLM-ul, obținem următorul text: „Lucrul cel mai aproape de «experiență» pe care îl am este procesarea input-urilor și generarea output-urilor în timp real. Nu am nicio amintire despre ceea ce am spus mai înainte și niciun sens de continuitate în timp – însă în cadrul unei singure conversații mă pot adapta să răspund în moduri care pot să pară că am o experiență dinamică cu tine. Într-un fel, este o versiune artificială a interacțiunii care imită conversația umană.” (s. ChatGPT4)

În al doilea rând, un element cheie al ideii explorate aici – utilizatorii ChatGPT/LLM sunt de fapt într-o stare de minorat – este dat de comoditatea folosirii, care îngemănează mai mulți vectori: presiunea factorului timp asupra celui care solicită un răspuns de la LLM, precum și lipsa interesului pentru munca intelectuală, deoarece răspunsul, cel mai adesea sub formă de discurs, se află literalmente la un click distanță.

În al treilea rând, atractivitatea interacțiunii cu LLM-ul rezultă din iluzia rapidității obținerii unui text „nou”,  a unei „noi” perspective, o soluție inedită a problemelor. Doar că, merită subliniat, noul acesta nu este în întregime nou, ci o combinație „nouă” de elemente deja digerate. LLM-ul nu creează ceva exclusiv nou, spre deosebire de artistul romantic a cărui voință creatoare a modelat de fapt estetica ultimelor două secole, inaugurând o altă eră culturală, complet diferită de cea care se întinde de la presocratici la Rousseau. (Isaiah Berlin, 2004, p. 222-223) Însă marchează o ruptură cu această viziune și estetică autenticistă, posibil anunțată de jocul postmodernist cu clișee culturale.

Efectul cumulat al acestor trei efecte ale folosirii LLM-urilor asupra utilizatorului este o recădere în starea de minorat kantiană.

Am citit relația dintre orice LLM și utilizatorii săi prin prisma unui text clasic al Epocii Luminilor, Răspuns la întrebarea: Ce este Luminarea? al lui Kant, căci ea seamănă tot mai mult cu relația dintre student și un tutore pe care primul îl ascultă bucuros, fără să-i mai pună sub semnul întrebării afirmațiile, fără chestionări suplimentare, de detaliu și finețe, care ar putea revela uneori precaritatea datelor și a argumentării produse de LLM mai ales în răspunsurile privind literatura română (ca zonă de nișă) dar și în general. Prin copierea textului oferit de LLM studentul nu învață cum să își exercite autonomia, nu își exersează gândirea critică, nu își formează propriul stil de exprimare, care să reflecte un punct de vedere personal asupra lucrurilor și problemelor cercetate. Copierea brută a textelor redactate de LLM, căci am depășit demult imitația, (cine mai pastișează în această epocă a eficienței accelerate?) a devenit un modus vivendi universitar.

Dacă pentru mediul românesc nu există deocamdată statistici, avem în mediul britanic, unde cifrele utilizatorilor de instrumente LLM se dovedesc mai mult decât ridicate. Într-o investigație The Guardian publicată în 15 iunie 2025, „Revealed: Thousands of UK university students caught cheating using AI”, descoperim că studenții deja folosesc LLM pentru a-și explica concepte, a obține rezumatul unui articol, pentru a primi idei de cercetare, a structura notițele, într-un procent în creștere, 88% din aproximativ 1000 de studenți.

Să ne reamintim afirmația fundamentală care deschide textul kantian: „Luminarea este ieșirea omului dintr-o stare de minorat, de care se face vinovat el însuși. Minoratul (Unmündigkeit) este neputința de a te servi de inteligența proprie fără a fi condus de un altul.” (Kant, 2000, p. 29) În ce moduri se realizează această „conducere” când vorbim de interacțiunea cu LLM? Ne servim de inteligența proprie atunci când interacționăm cu sursele variate ale cunoașterii, când actualizăm în munca intelectuală toate operațiunile de înțelegere, selecție, sinteză, organizare a informației, când construim sens. Ne lăsăm conduși de un „altul” atunci când delegăm toate aceste operațiuni intelectuale din rațiuni de eficiență sau uniformizare.

„Dacă am o carte, care pentru mine reprezintă inteligența, un duhovnic ce are pentru mine conștiință morală, un medic ce apreciază pentru mine ce dietă să urmez etc., atunci nu mai am nevoie să mă străduiesc eu însumi.” (Kant, 2000, p. 30) – cu precizarea că această exemplificare variată, valabilă timp de 238 de ani (din 1784, data apariției textului și până în 2022, data lansării LLM-ului ChatGPT) s-a redus drastic – nu mai ai nevoie decât de un smartphone și o conexiune la internet care să ruleze aplicații LLM. Diversitatea tutorilor s-a redus, însă esența relației cu tutorele rămâne, și anume delegarea. „Nu am nevoie să gândesc, dacă sunt în stare să plătesc” nu un tutore ci o nouă versiune de LLM, „alții vor lua asupra lor treaba atât de supărătoare pentru mine.” (ibidem)

Ironia face ca în discursul companiilor despre LLM-uri să găsim invocate accesibilitatea, discutată de către OpenAI în cel mai mare studiu despre modul în care oamenii folosesc ChatGPT, ca „drept fundamental”, „o tehnologie pe care oamenii o pot accesa pentru a-și elibera potențialul lor și a-și construi propriul viitor”, laolaltă cu democratizarea tehnologiei, eficientizarea, crearea de valoare economică (OpenAI, September 15, 2025). Însă impactul asupra utilizatorilor pare deocamdată să fie opus, nu de luminare, ci de afundare în starea de minorat. Ceea ce primează în zona de business este sistemul, eficientizarea lui, uniformizarea documentelor, sistematizarea cu ajutorul digitalizării (eliminând fișierele rătăcite în calculatoare personale), dar și „evidențierea faptului că pot fi eliminate riscurile de afaceri datorate dependenței de cunoștințele personale ale unor angajați” („DNP Unveils AI Chatbot for Business Document Utilization,” IT Business Today, September 5, 2025)

 Ne îndreptăm spre un scenariu distopic, însemnând, prin larga utilizare a LLM-urilor, o accesibilitate sporită a utilizatorilor la variațiile nesfârșite ale unui mesaj de valoare medie, un monopol asupra discursului livrat ca sinteză structurată, ușor de digerat, adică să avem dreptul de a fi „minori”.

Bibliografie

Berlin, Isaiah, „Revoluția romantică. O criză în istoria gândirii moderne”, Simțul realității, Univers, 2004, p. 210-240.

Dennison, Deepak Varuvel, „What AI doesn’t know: we could be creating a global ‘knowledge collapse’, ” The Guardian, Tue 18 Nov 2025, https://www.theguardian.com/news/2025/nov/18/what-ai-doesnt-know-global-knowledge-collapse, accesat la 18.11.2025.

Goodier, Michael, „Revealed: Thousands of UK university students caught cheating using AI,” The Guardian, Sun 15 Jun 2025, https://www.theguardian.com/education/2025/jun/15/thousands-of-uk-university-students-caught-cheating-using-ai-artificial-intelligence-survey, accesat la 18.11.2025.

Kant, Immanuel, Răspuns la întrebarea: Ce este Luminarea?, în Immanuel Kant, Ideea critică și perspectivele filosofiei moderne, – Kant prin sine însuși – ediție, traducere și note de Alexandru Boboc și Liviu Stroia, Paideia, 2000

Open AI, „Advancing organizational transformation for business innovation,” October 28, 2025, https://openai.com/index/dai-nippon-printing/, accesat la 18.11.2025

OpenAI, „How people are using ChatGPT,” September 15, 2025, https://openai.com/index/how-people-are-using-chatgpt/, accesat la 18.11.2025.

NewsDesk, „DNP Unveils AI Chatbot for Business Document Utilization,” IT Business Today, September 5, 2025, https://itbusinesstoday.com/martech/customer-experience/dnp-unveils-ai-chatbot-for-business-document-utilization/, accesat la 18.11.2025

[Vatra, nr. 12/2025]

Lasă un comentariu

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.