Connexions beethik: entrevista a Idoia Salazar

Idoia Salazar

Presidenta i fundadora d’OdiseIA, observatori de l’impacte social i ètic de la intel·ligència artificial. És periodista, investigadora i professora en la Universidad CEU San Pablo i es declara decidida a contribuir al desenvolupament ètic i responsable de la Intel·ligència Artificial. És speaker i autora de nombrosos articles i llibres sobre intel·ligència artificial. A més és expert in the EU Parliament AI Observatory (EPAIO) i Country advisor (Spain) in the Advisory Board d’International Group of Artificial Intelligence, entre d’altres.


1. Fa anys que es parla dels canvis que està provocant i provocarà la integració de la Intel·ligència Artificial a les nostres vides. Però darrerament el debat s’ha accelerat i sembla que van apareixent pors i precaucions. Què és el que ens preocupa tant?

Ens preocupa enfrontar-nos a casos que abans només vèiem en pel·lícules i literatura de ciència ficció. La qüestió és que ara és als telenotícies i això incita al desassossec i a la intranquil·litat. A més, tenim el fet que són molts els mitjans de comunicació generalistes que exalten la part més “cridanera” de la IA. És a dir, els sistemes d’IA integrats en robots hominoides –com és el cas de Sophia– que sembla que interactuen de manera autònoma amb els humans. Aquest fet, aplicat a una societat poc preparada que no entén ben bé què és un sistema d’IA i en quin moment de desenvolupament ens trobem, es tradueix en un temor fonamentat en el desconeixement de la realitat al voltant d’aquesta tecnologia.


2. Sovint afirmes que hem de posar la persona al centre de la IA. Què significa aquesta afirmació? I, sobretot… com es fa?

Els sistemes d intel·ligència artificial tenen una peculiaritat que no tenen altres tecnologies. Poden “aprendre” i arribar a conclusions o “decisions” de manera autònoma. Aquest fet pot significar que nosaltres, com a humans, deleguem en excés a les màquines aquesta “presa de decisions”. Imaginem que un departament de gestió de persones utilitza un sistema d’IA per seleccionar qui exercirà un lloc de treball específic dins d’una empresa. Aquest treball és possible automatitzar-lo amb aquestes eines d’IA, ja que el sistema té la capacitat d’analitzar al detall tots els currículums rebuts i contrastar-los amb les necessitats del lloc. Però la qüestió no és la capacitat sinó si realment cal delegar aquestes decisions concretes que poden incidir en el futur d’una persona. En conclusió: les persones del departament de RRHH es poden ajudar dels sistemes d’IA, però no substituir, sense supervisió, les decisions humanes per les de la IA. És una qüestió de responsabilitat. La IA no pot “rendir comptes” (almenys ara com ara), l’humà sí. Per tant, la responsabilitat última de la presa de decisions en aquest tipus d’assumptes ha de seguir sent dels humans.


3. El llibre “El algoritmo y yo”, que has escrit amb Richard Benjamins representa una guia de la convivència entre éssers humans i artificials. Per què “conviure” i no, per exemple, “interactuar”? O utilitzar? Es pot parlar de convivència entre humans i màquines?

Richard Benjamins i jo vam decidir utilitzar el terme “conviure” en lloc de paraules com “interactuar” o “utilitzar” per emfatitzar la relació més profunda i bidireccional que hi ha entre els éssers humans i la intel·ligència artificial en l’actualitat.

La “convivència” suggereix una relació més propera i harmònica en què les dues parts, humans i màquines, es beneficien i s’influeixen mútuament. A més, implica una responsabilitat compartida en la manera com aquestes tecnologies es desenvolupen, s’apliquen i s’integren a la societat. En el context explicat al llibre, la convivència fa referència a la necessitat d’establir pautes ètiques i socials per garantir que la intel·ligència artificial s’utilitzi de manera justa i beneficiosa per a tothom.

D’altra banda, és cert que pot semblar estrany parlar de “convivència” entre humans i màquines. Però creiem que aquesta perspectiva reflecteix millor la realitat actual en què la intel·ligència artificial està transformant ràpidament les nostres vides i com ens relacionem amb la tecnologia. Adoptar una actitud de “convivència” ens permetrà abordar els desafiaments i les oportunitats que sorgeixen d’aquesta relació que, sens dubte, es troba en constant evolució.


4. Actualment, el control del disseny i la gestió de la intel·ligència artificial està sota el poder d’interessos privats. Com es podrà controlar del poder tecnològic i protegir la ciutadania? Les iniciatives legislatives que s’estan desenvolupant arribaran a temps?

Al meu entendre, per controlar el poder tecnològic i protegir la ciutadania, és fonamental establir un marc regulador sòlid i garantir la col·laboració entre governs, empreses privades, investigadors i la societat civil. Els governs tenen un paper fonamental en la implementació de lleis i regulacions que protegeixin la privadesa de les dades, promoguin la transparència i evitin la discriminació i el biaix a la IA.

És important també el desenvolupament d’estàndards ètics en la investigació i l’aplicació de la IA per garantir un ús responsable d’aquestes tecnologies. Per exemple, nosaltres, des d’OdisseIA, hem desenvolupat el projecte GuIA, que són unes guies pràctiques per a ús responsable de la IA adaptades sobre casos d’ús en sectors concrets: tecnològiques, salut, assegurances, etc. Tot això, basant-nos en anàlisis de més de 100 codis ètics d’IA internacionals d’organitzacions i empreses. I, actualment, estem treballant en un segell de confiança en la intel·ligència artificial, basant-nos en la nostra àmplia experiència a l’àrea. Crec en la importància d’implementar auditories i supervisió independents dels sistemes d’IA també ens pot garantir la transparència i la responsabilitat.

També m’agradaria destacar la importància de l’educació i la conscienciació sobre la IA per apoderar la ciutadania i permetre’ns comprendre i participar en discussions sobre com es desenvolupa i s’aplica la IA.

Pel que fa a les iniciatives legislatives en desenvolupament, és difícil determinar si arribaran a temps per abordar tots els reptes que planteja la IA. Sens dubte s’està fent un gran esforç a nivell europeu amb la Regulació de la Comissió Europea sobre la IA (AI ACT). Tanmateix, és fonamental que els governs i les organitzacions internacionals segueixin treballant de manera proactiva per anticipar i afrontar aquests desafiaments a mesura que sorgeixen.


5. Una de les preocupacions socials més grans amb relació a l’ús de la IA és el seu possible impacte en un augment de la discriminació i la desigualtat pels biaixos derivats del disseny de determinats algorismes. Quines recomanacions ens donaries a les ciutadanes i ciutadans per protegir-nos i elevar la consciència dels riscos que tenim davant la presència creixent de la IA a les nostres vides?

Sens dubte, la preocupació sobre la discriminació i la desigualtat relacionades amb l’ús d’IA és legítima. Per a les persones en general, una de les millors maneres de protegir-se i augmentar la consciència sobre els riscos associats amb la IA a les nostres vides és mantenir-se informat sobre els avenços i debats en el camp de l’IA i l’ètica. És important que qualsevol ciutadà, independentment de la seva edat o condició, conegui com funciona la IA i quines són les possibles conseqüències. Això permetrà prendre decisions més informades i responsables al interactuar amb aquestes tecnologies. A més, permetrà una ampliació del criteri en avaluar la informació i les notícies relacionades amb la IA. No totes les aplicacions d’IA són iguals, i és important comprendre la diferència entre les que estan dissenyades de manera responsable i les que poden tenir efectes perjudicials. Una de les principals recomanacions que donaria seria intentar ser més conscient de la nostra petjada digital. És important aprendre a protegir la privadesa de les nostres dades personals, ja que la IA es basa en gran mesura en l’anàlisi i la utilització de dades. Hem d’intentar entendre com les empreses i les plataformes en línia utilitzen la nostra informació i configuren les nostres preferències de privadesa de manera adequada pot ajudar a mitigar els riscos relacionats amb la IA.

També aconsellaria assistir a diàlegs o debats sobre la IA i el seu impacte, amb persones expertes que puguin respondre qüestions que se’ns plantejaran moltes vegades. Nosaltres a OdiseIA fomentem aquestes trobades.


6. En l’àmbit de la IA ens centrem, habitualment, en els impactes negatius, però també se’n deriven, possiblement, oportunitats. Quines creus que són les principals contribucions que pot aportar la Intel·ligència Artificial per al desenvolupament de models organitzatius més ètics i responsables?

Avui dia no seria ètic no fer servir la intel·ligència artificial. Ens obre un món de noves oportunitats. Una de les principals és la identificació i correcció de biaixos. La IA pot ajudar a detectar i abordar biaixos en dades i algoritmes, cosa que permet a les organitzacions prendre decisions més justes i ètiques. Per exemple, això és especialment rellevant en àrees com ara la contractació, el crèdit i la distribució de recursos. També es poden millorar l’eficiència i la sostenibilitat de les operacions organitzatives. En optimitzar processos i reduir el malbaratament de recursos, les organitzacions poden adoptar pràctiques més respectuoses amb el medi ambient i socialment responsables.

Per posar un altre exemple, destacaria el paper de la IA per facilitar la presa de decisions informada i basada en dades a les organitzacions. És a dir, en proporcionar informació valuosa i anàlisi en temps real, pot ajudar els líders organitzacionals a prendre decisions estratègiques més ètiques i responsables que considerin el benestar a llarg termini dels seus empleats, clients i comunitats. A més, pot tenir un paper important en la promoció de la inclusió i la diversitat dins les organitzacions ajudant a identificar i abordar barreres i desigualtats en accedir a oportunitats.


7. Ja és una realitat el fet que la IA està prenent decisions per nosaltres (les rutes proposades pel GPS, les recomanacions de les plataformes d’entreteniment…fins i tot preguntem al ChatGPT què podem fer davant d’un problema ètic). Amb el temps, podem arribar a delegar a la IA gran part de les nostres decisions, però si això passa, què ens queda com a éssers humans?

És cert que la IA exerceix un paper cada cop més important en les nostres vides i decisions quotidianes. També ho és que molt probablement arribem a delegar gran part de les nostres decisions a la IA. Per saber afrontar aquest fet, que molt probablement passarà, és crucial recordar que, com a éssers humans, encara tenim la responsabilitat i el control darrer sobre les nostres accions i eleccions. Hem de recordar que la IA pot ser una eina valuosa per ajudar-nos a prendre decisions informades i optimitzar les nostres accions, però no ha de reemplaçar completament la nostra capacitat de pensar, raonar i reflexionar.

Crec que la clau per mantenir la nostra humanitat a l’era de la IA rau en fomentar l’educació, la consciència i el compromís amb l’ètica i els valors humans. En adoptar un enfocament crític i reflexiu sobre com utilitzem i ens relacionem amb la IA, podem assegurar-nos que seguim sent éssers humans amb esperit crític, empatia i responsabilitat, fins i tot quan la IA té un paper important en les nostres decisions i accions.


8. Precisament la setmana passada vam publicar una “entrevista” amb el ChatGPT. Què et va semblar? Quin impacte poden tenir a les nostres vides aquests models de llenguatge automàtic?

L’entrevista és molt bona. Deixa entreveure la tremenda potència d’aquesta tecnologia i l’impacte que pot tenir a la nostra rutina diària. Sens dubte, canviaran moltes coses a partir d’aquests desenvolupaments de la IA Generativa.

La qüestió és si la nostra societat està preparada per assumir aquests canvis. Per deixar que la IA activa formi part de les seves vides, com a eina més. Com serà aquest canvi? Possiblement molt més ràpid del que pensem per la utilitat clara d’aquests models del llenguatge. Les empreses, en utilitzar-lo, poden augmentar la productivitat automatitzant tasques relacionades amb la redacció, com ara la creació d’informes, resums, correus electrònics i altres documents. També poden millorar la presa de decisions en analitzar grans quantitats de dades i extreure’n informació rellevant. El faran servir, si no ho fan ja. I aviat.

Imaginem-ne la utilitat en el camp de l’educació. Gràcies a aquesta tecnologia es poden oferir tutorials personalitzats i eines d’aprenentatge adaptatiu per ajudar els estudiants a aprendre de manera més eficient i eficaç. A més, poden proporcionar retroalimentació immediata i assessorament. La tasca dels professionals humans continua sent molt útil, encara que aquestes eines, sens dubte, proporcionaran un suport important. A més, pot ajudar les persones amb discapacitats, com les dificultats auditives o de la parla, a comunicar-se mitjançant interfícies de llenguatge natural i sistemes de reconeixement de veu. Moltes utilitats i moltes que encara no hem descobert.


9. Finalment, si haguessis d’il·lustrar, amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions de la IA, quines serien?

Responsabilitat, equitat i transparència.