La cara B de la IA
The Social Dilema és un documental de Netflix que va guanyar un premi Emmy i que ha arribat a unes 100 milions de persones de 190 països en 30 llengües diferents. Compta amb les veus de tecnòlegs, investigadors i activistes que treballen per alinear la tecnologia amb els interessos de la humanitat. La majoria dels tecnòlegs que apareixen a la pel·lícula han tingut càrrecs relacionats amb l’estratègia de negoci a Google, Twitter, Facebook i Instagram. I tots ells han abandonat els seus càrrecs per motius ètics.
The Social Dilema ens alerta sobre el greu perill amagat en la manera com les xarxes socials estan reprogramant la civilització. Els autors del documental no ens parlen d’efectes que poden ocórrer de manera discreta a determinades persones ni d’efectes transitoris, només. No. Ens parlen de com el desenvolupament de la intel·ligència artificial (IA), a la qual contribuïm els humans fent-la servir, pot acabar reprogramant la civilització.
Ens trobem enmig d’un canvi de paradigma. Un canvi de paradigma no hi cap, als nostres caps: no podem veure allò que no hem vist prèviament. Una cosa semblant, en un altre context, també els va passar als indígenes d’Amèrica del Sud. No coneixien els vaixells a vela i no van saber veure’ls, tot i que els ulls els enviaven als cervells la informació de les naus a vela que s’apropaven cada vegada més amb la malèvola intenció de conquerir-los.
Retornant a la IA, no ens adonem, tot i estar-ho vivint a la nostra pell i en les societats, dels efectes negatius que la IA està tenint sobre tots nosaltres. El perill és tan greu que experts en tecnologia han fet sonar l’alarma sobre les seves creacions: un 50% dels investigadors d’IA pensen que hi ha un 10% o més de possibilitats que els humans ens extingim a causa de la nostra incapacitat per controlar la IA.
Per als qui us costi de creure com n’és de greu, aquest perill que ens alerten els creadors de la IA, us poso un exemple de la vida real. Seria com si estiguéssiu a punt de pujar a un avió i el 50% dels enginyers que han fet l’avió us diguessin: “Molt bé, si puges en aquest avió, tens un 10% de possibilitats que caigui.” Hi pujaries? Ara feu-vos la pregunta de si convé escoltar el que el 50% dels creadors de la IA tenen a dir-nos.
La promesa de la tecnologia de mantenir-nos connectats (la IA aplicada a Social Media) i la promesa de la tecnologia de fer-nos més productius i intel·ligents (la IA generativa) ha donat lloc a una sèrie de conseqüències no desitjades que no s’albiraven al principi.
Al principi tot era emoció: se’ns està donant veu; ens ofereixen una plataforma; descobrim que podem connectar-nos amb amics d’arreu del món; ens podem unir en comunitats amb idees afins; les petites i mitjanes empreses podem arribar als nostres clients; podem ser més productius; podem escriure més ràpid; podem codificar més ràpid; podem resoldre reptes com el canvi climàtic, etc. Però darrere d’aquesta cara amiga s’hi amagaven greus conseqüències no desitjades de manera que tenim sobre la taula greus problemes d’addicció; de dèficit d’atenció i de salut mental; desinformació per fake news; polarització de les maneres de pensar; atac al cor de la democràcia amb la creació de campanyes personalitzades durant anys per tal de manipular el nostre vot; sexualització dels infants; estafes a través dels deep fakes; problemes de seguretat nacional, etc.
Tots aquests problemes són molt pitjors que el problema que la invenció de la bomba atòmica va posar sobre la taula el 1944. Un problema que es va controlar amb un pacte de no-agressió mútua entre nacions. En aquella època, els responsables del New Deal van crear l’audaç sistema financer d’escala global anomenat Bretton Woods, alhora que van crear un projecte polític que va passar per la reescriptura de dues constitucions (la japonesa i l’alemanya) i per la creació de la UE. Les armes nuclears es podien aturar amb un pacte de no-agressió mútua. Els perjudicis ocasionats durant la Segona Guerra Mundial es podien intentar compensar amb uns projectes financer i polític com els esmentats més amunt. A més a més, les armes nuclears no tenen l’autopoder de posar-se en marxa i començar cap atac per elles mateixes. Ni tenen el poder de fer-se més fortes o més letals.
En canvi, la recent nova Golem IA sí que té el poder de fer-se més forta i més letal. Per posar-ne només un exemple, hem arribat a un punt en què una IA entrenada amb textos que li proporcionem en llengua francesa, de cop i volta, pot començar a escriure i parlar en turc. El pitjor de tot és que cap expert no pot explicar com això pot ocórrer. O sigui, que la IA manifesta capacitats emergents, que emergeixen d’ella sense prèvia programació per part de cap humà. La IA pot fer coses que s’escapen del control dels humans que les han programades en primera instància. Vam ser capaços de crear Brenwoods i la UE. Era crucial i ho vam fer. Ara estem en un moment potser més crucial i, en canvi, no estem creant res.
El que aconsellen els experts que han mostrat preocupació per la cada vegada més elevada possibilitat d’extinció de la humanitat a causa de la IA és:
a) Crear les lleis i polítiques que ens garanteixin la seguretat nacional i la personal
b) No entregar noves aplicacions basades en la IA a la societat fins que no hagi passat el temps necessari per haver pogut veure’n, de manera controlada, tots els seus efectes indesitjats.
L’organització Center for Humane Technology és una ONG que treballa per exposar els impulsors de totes les tecnologies extractives que dirigeixen els nostres pensaments, comportaments i accions. La seva missió és alinear la tecnologia amb els millors interessos de la humanitat. S’imaginen un món amb tecnologia que respecta la nostra atenció, millora el nostre benestar i enforteix les comunitats.