“Una màquina distingeix un gos d’un gat, però desconeix l’essència de ser gos”
Entrevistem Ramon López de Mántaras, expert i pioner en intel·ligència artificial a l’Estat i també en el conjunt d’Europa
Ramon López de Mántaras, nascut a Sant Vicenç de Castellet (Bages), resident a Vilanova i la Geltrú i amb vincles a Vilafranca del Penedès, està considerat des de fa anys el principal expert en inteŀligència artificial (IA) a l’Estat i, de fet, va ser pioner sobre aquesta temàtica tant a Espanya com al conjunt d’Europa. Dimecres, 18 d’octubre, presentarà el seu últim llibre, 100 coses que cal saber sobre inteŀligència artificial (Cossetània) i publicat el 6 de setembre, al Vinseum de Vilafranca (19 h). Ho farà en conversa amb l’expert informàtic Josep Maria Ganyet. Doctor en Física per la Universitat Paul Sabatier de Tolosa (França) i màster en informàtica per la Universitat Politècnica de Catalunya, López de Mántaras és professor d’investigació a l’Institut d’Investigació en Inteŀligència Artificial (IIIA), del qual va ser fundador i director; és membre del Consell Superior d’Investigacions Científiques (CSIC), ha rebut diversos premis i és autor de diversos llibres sobre IA.
D’on li ve la passió per l’electrònica?
De la impressió de veure a casa amb els pares, en una televisió en blanc i negre, l’arribada de Neil Armstrong a la Lluna. A més, ja havia llegit Jules Verne. Vaig acabar estudiant Enginyeria electrònica a Tolosa i fent la tesi doctoral el 1975, sis anys després d’aquelles imatges.
Quin és el concepte d’inteŀligència artificial?
Crear xarxes neuronals artificials per simular la connexió de neurones que fa el cervell. Un dels problemes és que cal encara molta energia per a la potència dels ordinadors i, per exemple, perquè aprenguin a distingir un gat d’un gos i perquè el ChatGPT predigui les paraules necessites mols milions de neurones artificials.
Per què es parla molt més d’IA ara que fa uns anys?
Perquè fins ara les màquines molt potents que necessitem per entrenar-les amb moltes dades no eren a l’abast. Perquè una màquina distingeixi que el que veu és un gos i res més necessita haver ‘vist’ centenars de milers d’imatges de gossos. Amb un rastreig d’internet i amb l’acceleració de la microelectrònica, això és molt més assequible que abans.
Al seu llibre parla de la manca de ‘sentit comú’ de les màquines. És un dels principals problemes perquè esdevinguin ‘humanes’?
És un tema encara obert de veure si això es podrà resoldre mai. La investigació més puntera mira d’aconseguir que una màquina pugui aprendre coneixements de sentit comú que les persones tenim des de petites i anem agafant al llarg de la vida.
Pot pronosticar terminis per veure’n resultats?
Per dir alguna cosa, no veig possible a 10 anys vista que una màquina entengui el que és la relació causa-efecte de si empenyo segons quin objecte es pot moure, si el deixes anar cau o per què et mulles quan plou. Tecnològicament tampoc és tant de temps, però el problema és que cal aprendre moltes coses i no un conjunt acotat, ni que fos de fins a un milió, que també les podries ensenyar a la màquina.
Ja ho entenc…
Que posis en marxa una màquina i que per si mateixa tingui objectius i aprengui és ciència ficció. Els humans hem de programar el que vols que aprengui. La màquina que distingeix un gos d’un gat no té la més mínima idea de què és ser un gos i, per exemple, que sàpiga que no pot travessar parets. Pot aprendre, però no sap l’essència del que significa ser un gos o una persona. No sap que tenim frustracions i emocions, que no podem volar i altres característiques que no pot aprendre.
La IA, en canvi, sembla molt útil si acotem per a què la volem, oi?
Sí, per a una tasca concreta, com detectar a partir d’una imatge i dades d’una persona si pot patir una malaltia greu, és molt bona. El gruix de la investigació en IA va perquè les tasques que faci una màquina les faci cada vegada millor i el marge d’error en un diagnòstic mèdic, per exemple, baixi; i que es pugui anar més enllà i facin un ventall de tasques més ampli.
Es parla de robots que ens facin la feina de la llar, posem per cas…
Sí, i fa anys que n’hi ha que aspiren i ho fan bé, però som lluny, per exemple, d’una màquina que manipuli amb més o menys compte un objecte que es pot trencar fàcilment o no i faci tasques tan diverses com cuinar, netejar i fer-nos el llit.
En IA també es parla força sobre la responsabilitat de les màquines…
Sí, i soc del tot partidari de crear un organisme de control format per humans sobre el que poden fer. La responsabilitat final sempre ha de ser d’una persona. Cap màquina per si sola prendrà la decisió de disparar un míssil a Ucraïna, per exemple. No té l’objectiu de disparar perquè sí, algú l’haurà programat i donat l’ordre per fer-ho.
Caldrà veure qui forma part d’aquests organismes, no?
Sí, perquè no poden ser les mateixes persones al capdavant de les empreses interessades en el negoci.
Hi ha molta feina feta en aquest sentit?
La llei de la Unió Europea sobre la IA ja classifica les aplicacions amb molt alt risc i que no s’han de poder fer; alt risc, on s’ha d’anar molt amb compte; risc mitjà i baix risc. Ja sabem que sovint l’administració va per darrere de la realitat, però que hi hagi drons autònoms que poden disparar no vol dir que diguem que ja no cal regular-los. Bé es van regular les armes bacteriològiques i les químiques després que s’inventessin, no? Per tant, cal una regulació, i la responsabilitat d’una mala acció d’una màquina haurà de ser d’una persona o empresa, que serà més o menys fàcilment identificable.
Recentment hem sabut del cas d’uns menors que han utilitzat IA per ‘despullar’ unes nenes…
Sí, però ho han pogut fer perquè van tenir accés a un software que permet fer-ho. Per tant, s’ha d’anar més enllà i fer que no puguin accedir a l’eina tecnològica que ho permet.
Amb IA, cada vegada serà més difícil distingir realitat i ‘fake news’, oi?
Sí. Ja hi ha vídeos on veus polítics dient coses que no han dit, pots fer dir a qualsevol persona el que vulguis i cantar amb la veu d’algú que no és… Per tant, aquell organisme de control no ha d’arribar a regular el nano que despulla la noia, sinó els que desenvolupen el software que permet fer això. Si l’acció l’hagués fet un adult, el problema seria el mateix. No n’hi ha prou que l’empresa que ofereix el software s’asseguri que l’usuari sigui menor, i en el cas de manipular les paraules seria molt útil, per exemple, per doblar pel·lícules. Els actors de doblatge, esclar, no n’estaran gaire contents.
Esclar…
Perquè poden perdre la feina, però és una aplicació molt útil que te’n vagis a la Xina, obris el mòbil i puguis mantenir una conversa amb una persona en xinès i català amb un sistema automàtic. Per tant, les aplicacions d’IA s’han de poder aplicar per a coses útils i permeses; en aquest cas, el doblatge de converses.
Al seu últim llibre critica els periodistes per donar una imatge d’estar més a prop del que estem d’un suposat control de tasques per part de les màquines…
S’ha d’evitar donar titulars que indueixin el lector a creure que una màquina decideix, és autònoma, pensa i que té uns objectius. Entenc que un titular impactant ven més, però cal trobar un terme mig i no confondre. El gran públic es pensa que estem en una època de la IA més avançada i molt diferent de la que realment estem. Hi ha molta gent que creu que les màquines destruiran molts llocs de treball, però ningú sap si se’n crearan més o menys. Potser es creen feines que ni imaginem quines seran.
Per exemple, les d’ensenyar a les màquines la predicció textual del ChatGPT, penso…
Ja hi ha persones que a partir d’una resposta incorrecta de la màquina li diuen una alternativa correcta, però són gent jove a Kenya, les Filipines i altres indrets que hi dediquen 12 hores al dia, amb molt d’estrès i cobrant una misèria. Això és un escàndol.