Per Jordi Pascual i Saüc
Recentment, Bill Gates -a qui La Vanguardia brindava més de quatre pàgines senceres de la seva edició de diumenge 2 d’abril- augurava ni més ni menys que l’inici de l’edat de la intel·ligència artificial. El creador de Microsoft comparava la revolució que s’acosta amb la que va significar la interfaç gràfica precursora dels moderns sistemes operatius i apuntava que “cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención sanitaria y se comunican entre sí”. Gates es mostrava certament optimista a l’hora d’avançar possibles usos de l’anomenada AI, com ara disposar d’un oficinista a la feina o bé poder comptar amb un traductor automàtic en pràcticament tots els idiomes. Ara bé, com veurem, aquest optimisme en la nova tecnologia no és general i és una qüestió més aviat controvertida.
Així per un costat, una part de les objeccions provenen dels defensors d’aquesta tecnologia i d’empreses que la desenvolupen. En aquest sentit, més de mil empresaris i investigadors en aquest camp han demanat una moratòria de sis mesos en el desenvolupament de sistemes més potents que el GPT-4, perquè consideren que pot suposar riscos profunds per a la societat i per a la humanitat sencera[i]. I és que, malgrat que Gates assegura que, per exemple, en l’àmbit sanitari, les intel·ligències artificials es sotmetran a proves molt minucioses i estaran regulades convenientment; les esmentades veus crítiques asseguren que s’ha engegat “una cursa sense control”, i que sistemes com el XatGPT o el buscador Bing de Microsoft són un perill potencial.
Entre els signants d’aquesta petició hi ha noms tan anomenats com Elon Musk, propietari de Twitter, Steve Wozniak, cofundador d’Apple, Yoshua Bengio, un dels pares de l’actual AI, o l’historiador Yuval Noah Harari. Més enllà de possibles interessos comercials, sorprèn la veu d’aquest últim, habitualment defensor de la cibertecnologia, i el seu to més aviat apocalíptic.
En un article recent al New York Times[ii], Harari adverteix dels grans riscos que comporta el desplegament sense control de l’AI, que superarien els grans beneficis que també hi observa (ajudar en la lluita contra el càncer, per exemple), perquè, segons ell, dominarà la clau de volta de la civilització humana, que és el llenguatge. Per Harari, el llenguatge és “el sistema operatiu de la cultura humana”, que la intel·ligència artificial, amb el seu nou poder, pot “sabotejar i manipular”:
“Què significaria per als humans viure en un món on un gran percentatge d’històries, melodies, imatges, lleis, polítiques i eines estan conformades per una intel·ligència no humana, que sap explotar amb una eficàcia sobrehumana les debilitats, els biaixos i les addiccions de la ment humana, alhora que és capaç d’establir relacions íntimes amb els éssers humans?”, es demana Harari.
Aviat ens trobarem vivint en els somnis de la intel·ligència no humana, pronostica, i aventura que, si la primera experiència amb un producte de l’AI, com han estat les xarxes socials, ha tingut resultats com augmentar la polarització i “desbaratar la democràcia”, en paraules seves; el segon gran contacte amb la intel·ligència artificial, que suposen els “grans models lingüístics”, si s’utilitzen per obtenir beneficis i poder, com intueix, pot “rebentar els fonaments de la nostra civilització”.
Ara bé, són fundats aquests temors que tan eloqüentment expressa Harari? D’entrada, segons la definició que en fa el propi Gates, de moment, l’AI no passaria d’equivaldre a un software capaç d’aprendre qualsevol tasca o tema, és a dir, que no pot ser -encara- general (per exemple, el XatGPT pot xatejar millor, però no pot aprendre altres tasques), tot i que li albira una ràpida millora amb l’arribada de l’aprenentatge automàtic i unes capacitats de processament cada cop més grans.
Per un altre costat, des de posicions més crítiques, els lingüistes Noam Chomsky i Ian Roberts, i el director d’intel·ligència artificial de l’empresa tecnològica Oceanit, Jeffrey Watumull, sostenen que eines com el XatGPT o Bard de Google o Sydney de Microsoft difereixen profundament de la manera humana de raonar i utilitzar el llenguatge. Així, com expliquen, “aquests sistemes agafen grans quantitats de dades, hi busquen unes pautes i cada vegada es tornen més competents per generar resultats estadísticament probables, com ara un pensament i un llenguatge que semblen humans”. Però discrepen frontalment de l’expectativa que estan generant aquests instruments segons la qual arribarà un dia no molt llunyà que seran capaços de superar els cervells dels éssers humans no només des del punt de vista quantitatiu, sinó en qualitats com l’agudesa intel·lectual o la creativitat artística.
Per Chomsky i companyia, “la ment humana és un sistema sorprenentment eficient i fins i tot elegant que funciona amb petites quantitats d’informació” i posen l’exemple de les llengües que són sistemes molt complexos, a partir de molt pocs signes, i que la gramàtica es pot entendre com “una expressió del sistema operatiu innat, instal·lat genèticament, que dota els humans de la capacitat de generar frases complexes i llargues seqüències de pensaments”. En canvi, els programes d’aprenentatge automàtics que intenten imitar el funcionament lingüístic presenten problemes amb el llenguatge simbòlic o figurat (són incapaços d’entendre o traduir una poesia, per exemple), però també limitacions a l’hora de distingir el que és possible del que és impossible (pot inventar coses fictícies, fins i tot quan se li demana per un hotel, segons el propi Bill Gates). Aplicat al camp científic, les possibilitats predictives de l’aprenentatge automàtic es basen en un alt grau de corroboració empírica i de probabilitat de succeir alguna cosa, però sense poder inferir relacions causals, estan limitades de cara a trobar explicacions satisfactòries, és a dir, en termes de Karl Popper, de formular teories potents, sovint amb poques probabilitats de ser certes.
Un altre argument que reduiria l’abast de l’AI, segons aquests autors, és la seva incapacitat de pensar en termes morals, tot i que Gates planteja fins a quin punt una intel·ligència artificial purament racional també pot reconèixer la desigualtat i fer propostes, tot i assumint la seva amoralitat. Aquí Chomsky, Roberts i Watumull hi veuen un perill: la falta de compromís amb qualsevol decisió i la indiferència davant les conseqüències de sistemes com el XatGPT. I finalment lamenten la popularitat d’aquesta eina, malgrat les seves limitacions lingüístiques, científiques i la seva falta d’ètica. És a dir, segons aquests autors, l’amenaça no vindria justificada tant per les potencialitats de l’anomenada intel·ligència artificial -exagerades pels experts o pensadors que hi estan més compromesos, com hem vist-, com pel seu ús excessiu, derivat de l’admiració injustificada que desperta.
En una línia també crítica, el filòsof Jordi Pigem (2022) troba el fonament de la, segons ell, mal anomenada intel·ligència artificial, en la creença que la ment es pot assimilar al cervell i, en conseqüència, reduir a substàncies bioquímiques o a un sistema digital. Ara bé, la ment no és un objecte i té a veure més aviat amb una experiència interior on intervenen les emocions, les conviccions i les idees, i que implica consciència i experiència (pàgina 92). A partir d’aquella creença és d’on parteix
“la fantasia que les màquines poden (o podran algun dia) pensar. Però la matèria no pot pensar. La veritable intel·ligència no és càlcul: el càlcul és simple aplicació de regles mecàniques, mentre que la intel·ligència implica comprensió, experiència, consciència” (93)
Com que es tracta de càlcul molt complex i ràpid, Pigem proposa deixar de parlar d’intel·ligència artificial, per referir-se simplement a càlcul algorítmic. Per tant, el plantejament d’aquest filòsof tindria un efecte relativitzador semblant als arguments de Chomsky que acabem de veure, sobre les amenaces dels nous sistemes de llenguatge que temia Harari.
Ara bé, a la vegada, Pigem adverteix de l’extraordinària “capacitat d’aparentar” de la nova tecnologia, que ja troba en els seus orígens, amb el test de Turing, quan aquest científic concloïa que les màquines pensen, si sembla que pensen. És a dir, ja en els seus inicis, s’observa aquesta capacitat d’imitació, de donar gat per llebre -com apunta Pigem-, que explicaria la gran fascinació que encara avui desperta l’anomenada AI. I seria justament aquesta capacitat d’enlluernar i prendre l’”AI” pel que no és, el que pot ser realment perillós, sobretot si es dona crèdit -com fa Harari- a l’anomenada “singularitat tecnològica” (technological singularity), el punt en el qual la tecnologia ha avançat tan ràpidament que supera la humanitat, s’hi imposa i la deixa a un segon pla.
Sobre l’acompliment d’aquesta hipòtesi, Pigem és clar, creu que dependrà de nosaltres, ja que
“En sentit estricte, les màquines no podran pensar mai (com a molt, ho podran aparentar) i, per tant, no podran governar-nos mai -tret que nosaltres, subjugats per la confusió i la tecnolatria, abdiquem de la condició humana i creguem que no som res més que algoritmes” (94)
Per tant, està a les nostres mans que es faci un ús adequat de les noves eines tecnològiques que se’ns posen a l’abast, sense fer cas dels cants de sirena dels seus promotors més fervents, ni dels temors apocalíptics d’altres veus. L’exageració que uns i altres fan dels seus poders no ajuden a gestionar-les. Per això, cal ressituar-les dins dels seus límits i fer-ne un ús precisament intel·ligent, mesurat i segons els nostres valors.
Bibliografia
Chomsky, Noam (2023). “La falsa promesa del ChatGPT”. Ara, 12 de març, pp. 46-47.
Gates, Bill (2023). “La edad de la inteligencia artificial ha comenzado”. La Vanguardia, 2 d’abril, pp. 32-36.
Harari, Yuval Noah (2023). “¿Viurem dins dels somnis de la intel·ligència artificial”. Ara, 1 d’abril.
Pigem, Jordi (2022). Tècnica i totalitarisme. Digitalització, deshumanització i els anells del poder global. Fragmenta Editorial.
[i] Es tracta de la carta “Posem en pausa els experiments d’IA gegants», publicada pel Future of Life Institute: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[ii] La versió en català d’aquest títol apareixia publicada al diari Ara, en la seva edición del dia 1/4/2023, amb el títol “¿Viurem dins dels somnis de la intel·ligència artificial?”.