Connexions beethik: entrevista a Txetxu Ausín

IInvestigador Científic i Director de l’Institut de Filosofia del CSIC (Grup d’Ètica Aplicada GEA). Doctor en Filosofia per la Universitat del País Basc (premi extraordinari), és professor convidat a diverses universitats i col·laborador a l’Institut de Governança Democràtica Globernance. Les seves àrees de treball són l’ètica pública, la bioètica, els drets humans i la filosofia de les tecnologies disruptives.tivas.

Membre de l’OECD Expert Group en Research ethics and new forms of data for social and economic research. Editor i autor de diverses obres sobre aquests temes, ha estat fundador de la revista electrònica d’ètiques aplicades DILEMATA [www.dilemata.net]. Actualment forma part dels equips de recerca d’EmpoderDAT: Empoderament del pacient, espai de dades de salut i intel·ligència artificial com a pilars del nou sistema sanitari [Fundació Sèneca]; Detecció i eliminació de biaixos en algorismes de salut [Fundació BBVA]; i BAKARZAIN: Solitud no desitjada i cures [BBK Kuna]. President del Comitè d’Ètica del CSIC i membre del comitè directiu de l’AIHUB-CSIC, col·labora també a la Xarxa ESPACyOS (Ètica Salubrista per a l’Acció, Cures i Observació Social) i al Comitè d’Experts sobre Envelliment de la Fundació General CSIC.

1. Què et suggereix el concepte d’ètica de la responsabilitat radical?

La idea de responsabilitat, de fer-se càrrec de les accions i omissions i de les conseqüències, és un concepte nuclear de l’ètica en tant que reflexió sobre la moral humana. Això és, en la mesura que som lliures de triar fer o no fer (així es titula un llibre que vaig coordinar amb la meva col·lega Rosana Triviño), optem entre una gamma de possibilitats i hem de fer la bona elecció. Responsabilitat, deure i bé són les arrels de l’ètica i parlar de “responsabilitat radical” fa referència a aquest criteri fonamental, últim, d’arrel, per a l’ètica.


2. En els darrers anys, una de les iniciatives més comunes a les organitzacions públiques és desenvolupar els anomenats “marcs d’integritat”. Què hi estan aportant? Quins reptes encara queden pendents?

Els anomenats marcs o sistemes d’integritat constitueixen una eina fonamental per a la transformació en clau ètica de les organitzacions del sector públic. En un moment de profunda desconfiança social envers les institucions, i de crisi de legitimitat del sistema democràtic, en conseqüència, els sistemes d’integritat institucional són un instrument valuós per restablir aquesta confiança pública, afavorint la cohesió social i la legitimitat democràtica. No oblidem que la confiança és aquest intangible que un món aclaparadorament complex i incert ens permet absorbir aquesta complexitat. La confiança és un fet bàsic de la vida quotidiana; confiem que el conductor de l’autobús, el metge, el professor, l’administratiu… (servidors públics), es comportin i executin les tasques tal com s’espera. En realitat, la confiança mou el món i la desconfiança, en canvi, és letal per a institucions, organitzacions i la societat en general.

Em permeto fer aquesta reflexió sobre la confiança perquè els sistemes d’integritat institucional no són un fi en ells mateixos, sinó una eina crucial per construir i mantenir la confiança pública.

Dit això, queden molts reptes pendents pel que fa als mateixos. Necessiten un impuls polític indispensable, s’han de construir de manera participativa, de baix a dalt, com a sistemes vius i flexibles, amb canals clars de consulta i denúncia i amb òrgans de monitorització i supervisió que els facin efectius. Això és, cal una “infraestructura ètica” perquè compleixin amb la seva comesa pedagògica, preventiva de les males pràctiques i exemplaritzant. El risc evident, com diu Adela Cortina, és convertir l’ètica en cosmètica, en una mera estratègia de màrqueting i publicitat que no transforma la cultura organitzacional i que, fet i fet, genera frustració i més desconfiança.


3. Dius que “l’ètica de la cura” ha de ser un dels fonaments de l’ètica pública – “La qualitat més gran és la calidesa”. Fins a quin punt està integrada la cura en la cultura, és a dir, en les maneres de fer, de les institucions públiques?

Malauradament, la cura com a perspectiva no és el que més abunda en la gestió pública. I, tanmateix, no tinc cap dubte que l’ètica de la cura és el fonament de les accions i les polítiques públiques. Partint d’una concepció antropològica basada en la vulnerabilitat humana, l’ètica de la cura posa l’accent en la resposta a aquesta susceptibilitat variable i desigual a patir un dany i com les institucions del sector públic s’orienten al bé comú mitjançant la protecció i la capacitació dels ciutadans. Es construeix així una “democràcia curosa”, en paraules de Joan Tronto, on el servei públic perseguirà protegir els febles i vulnerables així com transformar les bases perquè deixin de ser-ho, posant la cura al centre de les polítiques públiques. Una democràcia sensible i curosa, una governança exemplar, demana per tant una ètica pública de la cura.


4. En diferents ocasions, has compartit les teves reflexions sobre el principi de responsabilitat, especialment en el context del servei públic. Al llibre titulat “Fer o no fer, la responsabilitat per accions o omissions”, aprofundeixes en aquesta distinció i en les seves conseqüències. Afrontem, com a societat, la responsabilitat per acció i per omissió de la mateixa manera?

Precisament, el llibre que esmenteu és una anàlisi exhaustiva sobre la responsabilitat causal de la comissió per omissió. Això és, molt resumidament, que no fer també és una manera de fer alguna cosa que té conseqüències, sobre les quals també hem d’assumir responsabilitats. Pensem en uns pares que no alimenten els seus fills o en un sistema públic de salut que deixa desatesa part de la població (persones grans o immigrants indocumentats). I no, no s’afronta igual la responsabilitat per acció que per omissió. Individualment, la psicologia ha estudiat l’anomenat “biaix d’omissió” pel qual tendim a jutjar moralment més greus aquells comportaments nocius quan el dany és el resultat d’una acció, quan és resultat d’una omissió. Col·lectivament, aquest biaix d’omissió contribueix a diluir la responsabilitat, sobretot quan no es percep clarament l’enllaç causal entre l’omissió (d’ajuda, d’auxili, per exemple) i les conseqüències dolentes que es produeixen o es faciliten.


5. T’has referit a la confiança com un mantra sense la qual no es pot mantenir una societat complexa. Posant el focus a l’ètica pública, afirmes que el seu enfortiment ha d’orientar-se a enfortir la confiança, reforçant conviccions, hàbits i canvis de cultura. Què han de transformar realment les organitzacions públiques per tal de recuperar i potenciar la confiança de la ciutadania? I què hem de canviar nosaltres com a persones ciutadanes?

Les organitzacions del sector públic han d’assumir un model de governança més obert, transparent i col·laboratiu i, com hem dit, desenvolupar sistemes d’integritat institucional que contribueixin precisament a generar confiança pública. Una governança d’aquest tipus requereix així mateix una ciutadania activa i compromesa on les persones contribueixin proactivament i de manera participativa en el disseny i el desenvolupament de les polítiques públiques (co-gestió, co-responsabilitat), segons un model d’”administració relacional”, amb ciutadans “accionistes” en comptes de simples “clients” dels serveis públics.


6. També estàs investigant i treballant des de la perspectiva de l’ètica aplicada a les tecnologies disruptives al sector públic, especialment relacionades amb les dades. Quines iniciatives s’han de posar en marxa per a un govern adequat de la dada?

La intel·ligència artificial i la ciència de dades massives ja estan transformant la nostra societat i també el sector públic. Les polítiques públiques basades en dades i algorismes contribuiran a models decisionals menys especulatius, a reduir riscos i incerteses, i a innovar a través de la cooperació (intel·ligència col·lectiva i experimentació oberta). Aquestes oportunitats no estan exemptes de riscos i per això cal pedagogia social, reflexió ètica col·lectiva i deliberació pública per orientar aquestes tecnologies cap al bé comú i el servei real a la ciutadania. Per això, el desenvolupament de marcs ètics per als processos de transformació digital de les administracions és un imperatiu que ja s’està materialitzant en iniciatives com el Codi ètic per a les dades i la intel·ligència artificial de la Diputació Foral de Gipuzkoa o la recent normativa europea Artificial Intelligence Act.


7. Quins altres impactes es deriven d’altres aplicacions de la intel·ligència artificial a les institucions públiques? Quins són els riscos, els límits o les conseqüències de l’aplicació de models matemàtics de decisió a l’àmbit públic?

La introducció de sistemes basats en IA en la gestió pública suposa una transformació radical quant a la gestió i el disseny de les polítiques públiques, amb l’ús de dades massives que poden contribuir notablement a afinar intervencions en àmbits urbanístics, de trànsit, ambientals, socials, etc. Els riscos rauen en un disseny inadequat d’aquests sistemes que provoqui discriminació, desigualtat (bretxa), biaixos, impacte mediambiental… Per això, és indispensable prendre en consideració principis ètics i bones pràctiques per no convertir aquestes eines en “armes de destrucció matemàtica”, en paraules de Cathy O’Neil.

Atendre la qualitat de les fonts de les dades, que el tractament algorítmic sigui segur, que es protegeixi la privadesa, que s’avaluï la petjada ambiental del sistema o que es consideri l’impacte social positiu i la seva contribució a la solidaritat i la inclusió, constitueixen elements ètics indispensables en el desenvolupament i la implementació d’aquests sistemes.

També és obvi descartar aplicacions com els algorismes de puntuació social o els sistemes manipulatius.

I és molt important valorar prèviament la necessitat i la conveniència de desenvolupar aplicacions d’IA en relació a determinades activitats o processos, establint-se una anàlisi cost-benefici i la seva relació amb drets fonamentals de la persona.


8. Finalment, si haguessis d’il·lustrar, amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions, quines serien?

Participació, deliberació, responsabilitat.

Participació perquè l’ètica és cosa de tothom.

“L’ètica concerneix tothom. Els problemes i les teories científiques poden despertar la nostra curiositat o fins i tot apoderar-se de tots nosaltres alguna vegada, però només per a uns quants tenen importància pràctica i immediata. En canvi, tothom s’enfronta amb problemes morals sobre els quals, després de més o menys reflexió, cal decidir.” (TOULMIN, El lloc de la raó a l’ètica, 1950).

Deliberació perquè l’ètica és un exercici reflexiu que atén raons i arguments. La deliberació fa referència a una discussió que és informada, que es basa en valors i que és transformativa.

Responsabilitat perquè, com hem dit, suposa fer-se càrrec del que es considera un deure com a bo.

Connexió de connexions beethik! 5 anys i 1 invitació

Ja ha arribat de nou el dia del llibre! Aquest diumenge celebrem Sant Jordi.

Com passa el temps… i és que avui celebrem el 5è aniversari de #connexions_beethik. 

Però no ho fem sols, hem volgut posar-nos en contacte amb qui ens ha acompanyat els darrers anys en aquesta celebració tan especial, la nostra dragona.

Just fa un any que van rebre la visita d’un drac robot (ho pots recordar aquí), i ens explica que han tingut temps per conversar i reflexionar plegats sobre aquesta interacció tant present en el nostre dia a dia: la relació amb les màquines.

Continua llegint

Connexions beethik: entrevista a Idoia Salazar

Idoia Salazar

Presidenta i fundadora d’OdiseIA, observatori de l’impacte social i ètic de la intel·ligència artificial. És periodista, investigadora i professora en la Universidad CEU San Pablo i es declara decidida a contribuir al desenvolupament ètic i responsable de la Intel·ligència Artificial. És speaker i autora de nombrosos articles i llibres sobre intel·ligència artificial. A més és expert in the EU Parliament AI Observatory (EPAIO) i Country advisor (Spain) in the Advisory Board d’International Group of Artificial Intelligence, entre d’altres.


1. Fa anys que es parla dels canvis que està provocant i provocarà la integració de la Intel·ligència Artificial a les nostres vides. Però darrerament el debat s’ha accelerat i sembla que van apareixent pors i precaucions. Què és el que ens preocupa tant?

Ens preocupa enfrontar-nos a casos que abans només vèiem en pel·lícules i literatura de ciència ficció. La qüestió és que ara és als telenotícies i això incita al desassossec i a la intranquil·litat. A més, tenim el fet que són molts els mitjans de comunicació generalistes que exalten la part més “cridanera” de la IA. És a dir, els sistemes d’IA integrats en robots hominoides –com és el cas de Sophia– que sembla que interactuen de manera autònoma amb els humans. Aquest fet, aplicat a una societat poc preparada que no entén ben bé què és un sistema d’IA i en quin moment de desenvolupament ens trobem, es tradueix en un temor fonamentat en el desconeixement de la realitat al voltant d’aquesta tecnologia.


2. Sovint afirmes que hem de posar la persona al centre de la IA. Què significa aquesta afirmació? I, sobretot… com es fa?

Els sistemes d intel·ligència artificial tenen una peculiaritat que no tenen altres tecnologies. Poden “aprendre” i arribar a conclusions o “decisions” de manera autònoma. Aquest fet pot significar que nosaltres, com a humans, deleguem en excés a les màquines aquesta “presa de decisions”. Imaginem que un departament de gestió de persones utilitza un sistema d’IA per seleccionar qui exercirà un lloc de treball específic dins d’una empresa. Aquest treball és possible automatitzar-lo amb aquestes eines d’IA, ja que el sistema té la capacitat d’analitzar al detall tots els currículums rebuts i contrastar-los amb les necessitats del lloc. Però la qüestió no és la capacitat sinó si realment cal delegar aquestes decisions concretes que poden incidir en el futur d’una persona. En conclusió: les persones del departament de RRHH es poden ajudar dels sistemes d’IA, però no substituir, sense supervisió, les decisions humanes per les de la IA. És una qüestió de responsabilitat. La IA no pot “rendir comptes” (almenys ara com ara), l’humà sí. Per tant, la responsabilitat última de la presa de decisions en aquest tipus d’assumptes ha de seguir sent dels humans.


3. El llibre “El algoritmo y yo”, que has escrit amb Richard Benjamins representa una guia de la convivència entre éssers humans i artificials. Per què “conviure” i no, per exemple, “interactuar”? O utilitzar? Es pot parlar de convivència entre humans i màquines?

Richard Benjamins i jo vam decidir utilitzar el terme “conviure” en lloc de paraules com “interactuar” o “utilitzar” per emfatitzar la relació més profunda i bidireccional que hi ha entre els éssers humans i la intel·ligència artificial en l’actualitat.

La “convivència” suggereix una relació més propera i harmònica en què les dues parts, humans i màquines, es beneficien i s’influeixen mútuament. A més, implica una responsabilitat compartida en la manera com aquestes tecnologies es desenvolupen, s’apliquen i s’integren a la societat. En el context explicat al llibre, la convivència fa referència a la necessitat d’establir pautes ètiques i socials per garantir que la intel·ligència artificial s’utilitzi de manera justa i beneficiosa per a tothom.

D’altra banda, és cert que pot semblar estrany parlar de “convivència” entre humans i màquines. Però creiem que aquesta perspectiva reflecteix millor la realitat actual en què la intel·ligència artificial està transformant ràpidament les nostres vides i com ens relacionem amb la tecnologia. Adoptar una actitud de “convivència” ens permetrà abordar els desafiaments i les oportunitats que sorgeixen d’aquesta relació que, sens dubte, es troba en constant evolució.


4. Actualment, el control del disseny i la gestió de la intel·ligència artificial està sota el poder d’interessos privats. Com es podrà controlar del poder tecnològic i protegir la ciutadania? Les iniciatives legislatives que s’estan desenvolupant arribaran a temps?

Al meu entendre, per controlar el poder tecnològic i protegir la ciutadania, és fonamental establir un marc regulador sòlid i garantir la col·laboració entre governs, empreses privades, investigadors i la societat civil. Els governs tenen un paper fonamental en la implementació de lleis i regulacions que protegeixin la privadesa de les dades, promoguin la transparència i evitin la discriminació i el biaix a la IA.

És important també el desenvolupament d’estàndards ètics en la investigació i l’aplicació de la IA per garantir un ús responsable d’aquestes tecnologies. Per exemple, nosaltres, des d’OdisseIA, hem desenvolupat el projecte GuIA, que són unes guies pràctiques per a ús responsable de la IA adaptades sobre casos d’ús en sectors concrets: tecnològiques, salut, assegurances, etc. Tot això, basant-nos en anàlisis de més de 100 codis ètics d’IA internacionals d’organitzacions i empreses. I, actualment, estem treballant en un segell de confiança en la intel·ligència artificial, basant-nos en la nostra àmplia experiència a l’àrea. Crec en la importància d’implementar auditories i supervisió independents dels sistemes d’IA també ens pot garantir la transparència i la responsabilitat.

També m’agradaria destacar la importància de l’educació i la conscienciació sobre la IA per apoderar la ciutadania i permetre’ns comprendre i participar en discussions sobre com es desenvolupa i s’aplica la IA.

Pel que fa a les iniciatives legislatives en desenvolupament, és difícil determinar si arribaran a temps per abordar tots els reptes que planteja la IA. Sens dubte s’està fent un gran esforç a nivell europeu amb la Regulació de la Comissió Europea sobre la IA (AI ACT). Tanmateix, és fonamental que els governs i les organitzacions internacionals segueixin treballant de manera proactiva per anticipar i afrontar aquests desafiaments a mesura que sorgeixen.


5. Una de les preocupacions socials més grans amb relació a l’ús de la IA és el seu possible impacte en un augment de la discriminació i la desigualtat pels biaixos derivats del disseny de determinats algorismes. Quines recomanacions ens donaries a les ciutadanes i ciutadans per protegir-nos i elevar la consciència dels riscos que tenim davant la presència creixent de la IA a les nostres vides?

Sens dubte, la preocupació sobre la discriminació i la desigualtat relacionades amb l’ús d’IA és legítima. Per a les persones en general, una de les millors maneres de protegir-se i augmentar la consciència sobre els riscos associats amb la IA a les nostres vides és mantenir-se informat sobre els avenços i debats en el camp de l’IA i l’ètica. És important que qualsevol ciutadà, independentment de la seva edat o condició, conegui com funciona la IA i quines són les possibles conseqüències. Això permetrà prendre decisions més informades i responsables al interactuar amb aquestes tecnologies. A més, permetrà una ampliació del criteri en avaluar la informació i les notícies relacionades amb la IA. No totes les aplicacions d’IA són iguals, i és important comprendre la diferència entre les que estan dissenyades de manera responsable i les que poden tenir efectes perjudicials. Una de les principals recomanacions que donaria seria intentar ser més conscient de la nostra petjada digital. És important aprendre a protegir la privadesa de les nostres dades personals, ja que la IA es basa en gran mesura en l’anàlisi i la utilització de dades. Hem d’intentar entendre com les empreses i les plataformes en línia utilitzen la nostra informació i configuren les nostres preferències de privadesa de manera adequada pot ajudar a mitigar els riscos relacionats amb la IA.

També aconsellaria assistir a diàlegs o debats sobre la IA i el seu impacte, amb persones expertes que puguin respondre qüestions que se’ns plantejaran moltes vegades. Nosaltres a OdiseIA fomentem aquestes trobades.


6. En l’àmbit de la IA ens centrem, habitualment, en els impactes negatius, però també se’n deriven, possiblement, oportunitats. Quines creus que són les principals contribucions que pot aportar la Intel·ligència Artificial per al desenvolupament de models organitzatius més ètics i responsables?

Avui dia no seria ètic no fer servir la intel·ligència artificial. Ens obre un món de noves oportunitats. Una de les principals és la identificació i correcció de biaixos. La IA pot ajudar a detectar i abordar biaixos en dades i algoritmes, cosa que permet a les organitzacions prendre decisions més justes i ètiques. Per exemple, això és especialment rellevant en àrees com ara la contractació, el crèdit i la distribució de recursos. També es poden millorar l’eficiència i la sostenibilitat de les operacions organitzatives. En optimitzar processos i reduir el malbaratament de recursos, les organitzacions poden adoptar pràctiques més respectuoses amb el medi ambient i socialment responsables.

Per posar un altre exemple, destacaria el paper de la IA per facilitar la presa de decisions informada i basada en dades a les organitzacions. És a dir, en proporcionar informació valuosa i anàlisi en temps real, pot ajudar els líders organitzacionals a prendre decisions estratègiques més ètiques i responsables que considerin el benestar a llarg termini dels seus empleats, clients i comunitats. A més, pot tenir un paper important en la promoció de la inclusió i la diversitat dins les organitzacions ajudant a identificar i abordar barreres i desigualtats en accedir a oportunitats.


7. Ja és una realitat el fet que la IA està prenent decisions per nosaltres (les rutes proposades pel GPS, les recomanacions de les plataformes d’entreteniment…fins i tot preguntem al ChatGPT què podem fer davant d’un problema ètic). Amb el temps, podem arribar a delegar a la IA gran part de les nostres decisions, però si això passa, què ens queda com a éssers humans?

És cert que la IA exerceix un paper cada cop més important en les nostres vides i decisions quotidianes. També ho és que molt probablement arribem a delegar gran part de les nostres decisions a la IA. Per saber afrontar aquest fet, que molt probablement passarà, és crucial recordar que, com a éssers humans, encara tenim la responsabilitat i el control darrer sobre les nostres accions i eleccions. Hem de recordar que la IA pot ser una eina valuosa per ajudar-nos a prendre decisions informades i optimitzar les nostres accions, però no ha de reemplaçar completament la nostra capacitat de pensar, raonar i reflexionar.

Crec que la clau per mantenir la nostra humanitat a l’era de la IA rau en fomentar l’educació, la consciència i el compromís amb l’ètica i els valors humans. En adoptar un enfocament crític i reflexiu sobre com utilitzem i ens relacionem amb la IA, podem assegurar-nos que seguim sent éssers humans amb esperit crític, empatia i responsabilitat, fins i tot quan la IA té un paper important en les nostres decisions i accions.


8. Precisament la setmana passada vam publicar una “entrevista” amb el ChatGPT. Què et va semblar? Quin impacte poden tenir a les nostres vides aquests models de llenguatge automàtic?

L’entrevista és molt bona. Deixa entreveure la tremenda potència d’aquesta tecnologia i l’impacte que pot tenir a la nostra rutina diària. Sens dubte, canviaran moltes coses a partir d’aquests desenvolupaments de la IA Generativa.

La qüestió és si la nostra societat està preparada per assumir aquests canvis. Per deixar que la IA activa formi part de les seves vides, com a eina més. Com serà aquest canvi? Possiblement molt més ràpid del que pensem per la utilitat clara d’aquests models del llenguatge. Les empreses, en utilitzar-lo, poden augmentar la productivitat automatitzant tasques relacionades amb la redacció, com ara la creació d’informes, resums, correus electrònics i altres documents. També poden millorar la presa de decisions en analitzar grans quantitats de dades i extreure’n informació rellevant. El faran servir, si no ho fan ja. I aviat.

Imaginem-ne la utilitat en el camp de l’educació. Gràcies a aquesta tecnologia es poden oferir tutorials personalitzats i eines d’aprenentatge adaptatiu per ajudar els estudiants a aprendre de manera més eficient i eficaç. A més, poden proporcionar retroalimentació immediata i assessorament. La tasca dels professionals humans continua sent molt útil, encara que aquestes eines, sens dubte, proporcionaran un suport important. A més, pot ajudar les persones amb discapacitats, com les dificultats auditives o de la parla, a comunicar-se mitjançant interfícies de llenguatge natural i sistemes de reconeixement de veu. Moltes utilitats i moltes que encara no hem descobert.


9. Finalment, si haguessis d’il·lustrar, amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions de la IA, quines serien?

Responsabilitat, equitat i transparència.