QUIOSC DIGITAL BUTLLETINS
EN DIRECTE EL 9 TV
EN DIRECTE EL 9 FM

“Les decisions sobre la intel·ligència artificial estan en mans de mitja dotzena de tecnològiques, que tots sabem quines son”

Entrevista a Ramon López de Mántaras

Quan ningú no parlava encara d’intel·ligència artificial, Ramon López de Mántaras i Badia (Sant Vicenç de Castellet, 1952), ja en feia el tema d’una tesi. Doctor en Física i en Informàtica, va fundar i dirigir l’Institut d’Investigació en Intel·ligència Artificial. Se’l considera el màxim expert català en la matèria. I a més, és un extraordinari divulgador que va participar en les Tertúlies de Literatura Científica de la UVic-UCC.

Les conferències i cursos sobre intel·ligència artificial són plenes de gent. Els mitjans no parem de parlar-ne. Els experts, detecteu que hi ha ganes de saber, i un punt d’inquietud?
I tant. Hi ha ganes de saber-ne més. Una de les fonts de la por o de la incertesa és el desconeixement. A la por hi han contribuït informacions exagerades, titulars que ens parlen com si les màquines tinguessin intencionalitat pròpia, que ens hagin de controlat i dominar. Per començar, que ningú no s’ho cregui. A vegades és una cortina de fum perquè no parlem dels problemes de veritat que ja fa un temps que són sobre la taula, com els algorismes que discriminen. O que les decisions sobre cap on va la IA estan en mans de mitja dotzena de grans tecnològiques que tots sabem quines són. A ells els interessa no que es parli de la problemàtica present sinó d’una hipotètica intel·ligència que ens controlarà a tots, cosa que és ciència-ficció. El missatge que arriba a la societat sovint és aquest.

Per començar, de què parlem quan parlem d’intel·ligència artificial? Perquè a vegades el primer que cal és definir les coses.
El nom ja és un problema. Perquè hi apareix el concepte d’intel·ligència, i de seguida hi antropomorfitzen. Ens pensem que estem parlant d’intel·ligència com la nostra, i no és el cas. La intel·ligència artificial té poc a veure amb la humana. El nom crea falses expectatives: les màquines no decideixen ni pensen, som nosaltres. Les podem programar perquè facin un raonament automatitzat seguint les regles de la lògica matemàtica, però no pensen de manera conscient o amb emocions barrejades amb la racionalitat. És molt important separar les dues coses, si no és que definim la intel·ligència d’una forma molt banal… i llavors hauríem de dir que un termòstat és intel·ligent perquè posa en marxa l’aire condicionat.

La seva mateixa trajectòria ens diu que això ve de lluny. Fa temps que en realitat s’investiga en IA?
Absolutament. Jo vaig defensar la tesi doctoral a la Universitat de Tolosa de Llenguadoc l’any 1977. I ja era sobre un algorisme d’aprenentatge que permetia que un robot pogués discriminar objectes només agafant-los amb una pell artificial, una mà robòtica que tenia uns sensors de pressió. La mà era de forma humana, amb cinc dits de tres falanges cada un. I pensi que jo vaig començar a treballar en IA uns 20 anys després que els Estats Units i alguns altres països –pocs– hi fessin els primers passos. Estem parlant de fa més de 65 anys, doncs.

Però quan fan el gran salt? Quan aquests processos poden tenir accés al big data, la gran quantitat de dades que actualment acumulem?
Fa una dècada, aproximadament, va haver-hi un resultat força espectacular d’un sistema basat en visió artificial que podia analitzar una imatge i dir-nos què hi havia. Reconeixement de patrons. I això va ser possible amb uns algorismes que no eren nous, que portaven uns anys en circulació, però el que va possibilitar el salt era la disponibilitat d’una quantitat massiva de dades. Milions! I d’altra banda, la computació d’altres prestacions, amb gran memòria i velocitat de processament. Les dades entrenen els algorismes, els ensenyen a discriminar. Des d’aleshores això ha anat in crescendo, amb el GPT, per exemple, que és una optimització d’aquells algorismes preparant-los per generar text. O millor dit, per preveure com ha de continuar un text, quina és la possibilitat de la següent paraula.

Nosaltres en som conscients en el moment en què hi ha aplicacions que qualsevol usuari pot fer servir?
Això és manca de prudència. No ho haurien hagut de desplegar sense haver fet abans una avaluació del seu impacte, de quins biaixos podia tenir. Han estat molt imprudents! Open IA, els primers que ho van fer, i després els que s’han afegit a la cursa per veure qui es queda el tros de pastís més gran. Què ha provocat això? Que contínuament estiguem veient els problemes que estan creant aquests sistemes del que en diuen intel·ligència artificial generativa. Un dels criteris que s’havien de tenir en compte era el de minimitzar el riscos. L’ideal seria que fos amb un organisme certificador.

Com les agències de salut amb els medicaments?
Exacte. Aquí Open IA, amb Sam Altman al capdavant –que el van voler apartar i ara torna a ser-hi– va llençar Chat GPT, i al cap de poc ja teníem milers i milers de persones que el feien servir. Hem vist induccions al suïcidi, informacions errònies en consultes sobre medicina o sobre dret… hi ha una llista inacabable de problemes documentats. Sam Altman ha fet servir la màxima de Mark Zuckerberg: mou-te de pressa i trenca esquemes. Un error enorme! Hem d’anar a poc a poc amb la IA, perquè en lloc d’esquemes pots trencar vides.

Hem fet tard per assolir una forma de regulació, com comentàvem abans?
De moment sí, perquè això va més de pressa que la regulació. També és difícil (i potser no tindria gaire sentit) regular abans per si de cas. Estem en una disjuntiva, allò que en anglès en diuen mixed feelings. Té una lògica, que la regulació vagi darrere del progrés, que corre molt. Un retard és inevitable, el problema és que aquest sigui molt llarg. La legislació europea d’IA no s’espera que sigui d’obligat compliment fins a finals de l’any 2024, i potser a principis de 2025. Aquí potser anem una mica lents.

Al principi apuntava que un dels problemes pot ser que la IA estigui sota el control d’un nombre molt reduït de persones o empreses.
Es poden comptar amb els dits d’una mà o de dues. I estan prenent decisions que ens afecten a tots.

Però n’hem sentit alguns que sembla com si ara ho volguessin frenar. Que adverteixen fins i tot d’uns certs riscos…
Com Ilya Sutskever, un dels que sembla que volia apartar Sam Altman. Diuen que volia anar més a poc a poc, cosa que estaria prou bé. Però per quins motius? Segons ells, per por d’una futura superintel·ligència que pugui controlar la humanitat a no sé quants anys vista. O fins i tot extingir-la. I no és així!

Descartem que un dia que la IA pensi pel seu compte i es descontroli l’experiment, com amb els dinosaures de Jurassic Park?
Absolutament. Ni això ni terminators ni coses d’aquestes. Si no especulem i projectem en base a arguments sòlids, no hi haurà màquines amb objectius, desitjos o creences pròpies que tinguin la necessitat de controlar-los. Ho veig ridícul.

Parlant de perills, però, pot tenir usos militars?
Ja els té. I Sutskever no en parla gaire, precisament. Ara ja està verificat que a la guerra d’Ucraïna s’estan utilitzant drons de forma autònoma. Compte! No és el dron que decideixi “mira, ara atacaré aquest tanc”. És quan les seves càmeres el capten, i la forma coincideix amb un dels que té programats com a possibles objectius. Veu que és un tanc rus, o ucraïnès, i dispara. La mà humana sempre és al darrere, des de la invenció de l’algorisme a la seva implementació i desplegament. Per això no té sentit parlar d’IA ètica, sinó de l’ús ètic de la IA. Aquesta no pren iniciatives pròpies: és software, programes que hem fet nosaltres. La podem desendollar si volem i la màquina passa a ser un objecte inert.

Això vol dir que ens faran falta experts en ètica que siguin a la vegada tecnòlegs?
O que parlin, almenys, un llenguatge comú amb els tecnòlegs. Així com hi ha comissions de bioètica, alguna cosa semblant s’haurà de fer amb la IA. En el món acadèmic això no és complicat de posar en funcionament. El problema és en el sector privat, en aquestes grans empreses que, com és lògic, es mouen pels beneficis dels seus accionistes. Quan parlen que cal regular la IA, no ens els creguem gaire. Són hipòcrites. Volen dir que s’ha de regular com ells desitgen que es reguli. No com ho consideri la societat. Són com un lobby. Recordi que no fa gaire Sam Altman es va passejar per diferents països europeus i el van rebre amb la catifa vermella: Pedro Sánchez, Ursula von der Leyen, Rishi Sunak… I això té com a objectiu condicionar la legislació que s’està preparant.

Parlem de molts problemes, però la IA també ens pot ajudar, no?
Afortunadament. Si no hi veiés aspectes positius, jo no seria aquí. Fins ara, les aplicacions més interessants que hi ha ja eren prèvies a la IA generativa. En medicina, en educació, en robòtica assistencial…

En aquest últim camps, no fa gaire sabíem que el govern comprarà assistents robòtics intel·ligents per posar-los a disposició de gent gran…
Està molt bé, però que siguin per ajudar el cuidador humà, el familiar o el gerontòleg, no per substituir-lo. El robot no substituirà l’empatia i la socialització d’un ésser humà. La persona dependent no pot esperar afectivitat per part de la màquina. El que no pots impedir és que projecti afectivitat cap a aquesta. No és cap problema, perquè sempre projectem afectivitat cap a objectes, que no cal que siguin intel·ligents. En aquest cas, l’advertència és que tu no n’has d’esperar un retorn afectiu, de la màquina. Si es fa bé, de forma ètica i com cal, és positiu. I això s’està treballant ja, a casa nostra, amb el grup de robòtica social de la investigadora Carme Torras.

Veurem canviar el món, però, amb la IA? Hi ha enquestes que diuen que fins i tot hi ha gent jove que té por que ens acabi prenent feines.
Hi ha molt a dir, en això. Un lloc de treball no es compon d’una única tasca. Si analitza la seva feina, quantes coses diverses fa cada dia? Moltes. N’hi ha algunes que són automatitzables, però d’altres no. El discurs més racional seria mirar-ho com un conjunt persona-màquina. No m’agrada parlar d’assistent, perquè sembla que posem la màquina al mateix nivell que la persona, però sí que és un instrument sofisticat que pot ajudar a fer determinades tasques, sense arribar a automatitzar-les totes. Si fos així, sí que vostè se n’hauria d’anar a casa. Ara bé, això no vol dir que no hi hagi un temps de transició en què incorporar tot això serà traumàtic. El tema de la formació continuada serà bàsic, caldrà més que mai formar-se i adaptar-se tota la vida.

LA PREGUNTA

Considera que PSOE i Junts recomposaran la relació per restituir la majoria de la investidura?

En aquesta enquesta han votat 152 persones.