Catedràtic d’Ética de la Universidad Jaume I de Castelló. Ha ampliat estudis de Filosofia Política a Frankfurt (Alemanya) i d’Ètica econòmica a ST.Gallen (Suïssa), així com a la Universitat de Notre Dame (Estats Units). Les seves línies de recerca inclouen: ètica empresarial, democràcia deliberativa, disseny institucional, societat civil, ètica de la intel·ligència artificial i democràcia algorísmica. Ha escrit nombrosos llibres i articles. Actualment és Director del Departament de Filosofia i Sociologia.
1. Què et suggereix el concepte d’ètica de la responsabilitat radical?
El predicat radical introdueix sempre la idea d’anar a l’origen, a l’arrel, al fonament de les qüestions, les activitats o les pràctiques. Això significa, al meu parer, que, en acompanyar el concepte de responsabilitat, incideix en el seu significat primari: reconèixer que responsabilitat ve de respondre, de dir i fer allò que s’espera de nosaltres, tant de les persones com de les institucions. Per exemple, quan parlem d’una “empresa responsable” o d’una “universitat responsable”, estem dient que són capaços de respondre del que se n’espera. Això és el que anomenem ètica: un caràcter obert a la responsabilitat, capaç de donar raó del que fa o deixa de fer. Radical indicaria així una responsabilitat completa i sincera. D’aquesta capacitat de respondre davant dels altres depèn la generació i el manteniment de la confiança.
2. Fa divuit anys vas publicar “Ètica empresarial. Del diàleg a la confiança”, un llibre de capçalera per a molts dels que començàvem a treballar a l’àmbit de la responsabilitat social empresarial. Ens pots explicar fins a quin punt la tesi que defensaves ara resulta d’actualitat?
Crec sincerament que avui s’aprecia millor la innovació que el llibre va representar en el seu moment i també la seva actualitat, ja que desenvolupa les idees bàsiques per entendre la relació entre ètica i confiança, entre l’ètica empresarial i les bases ètiques de la confiança dipositada a l’empresa. Unes idees que tenen a veure tant amb la presa de decisions a l’empresa com amb el disseny institucional de les mateixes. La confiança és la clau del llibre i a ella se’n dediquen les pàgines centrals. Allí s’expliquen idees com el contracte moral subjacent a la credibilitat de l’empresa, la potencialitat de la teoria dels stakeholder per concretar i gestionar el diàleg i acord entre els grups d’interès, així com una visió de l’empresa com a institució on la participació i el valor compartit són les principals orientacions, etc.
El llibre, però, no s’atura en una filosofia d’empresa. S´atreveix a complementar l´ètica del discurs amb la teoria dels stakeholder, passant de la teoria a la pràctica, a una proposta d´un sistema integrat per a la gestió de l´ètica a l´empresa, d´un disseny institucional capaç de generar confiança. Un disseny basat en una infraestructura ètica que conté des d’una nova generació de codis ètics, fins a la proposta d’una auditoria ètica, passant pels comitès d’ètica i els informes de sostenibilitat.
Un bon exemple d’aquesta actualitat és la tesi principal del llibre: la responsabilitat social empresarial o forma part de l’ètica empresarial, del caràcter de l’empresa, del seu compromís sincer i públic, o és un simple instrument per al benefici econòmic dels accionistes i propietaris. Sense el marc d’una ètica empresarial no podem visibilitzar la manipulació i la instrumentalització que contínuament es fa de la responsabilitat social empresarial, menys encara aprofitar l’actiu que suposa l’ètica per generar confiança.
3. Ara es comença a utilitzar l’expressió “capitalisme de stakeholder”, com una expressió actualitzada del que en el seu moment es va anomenar “responsabilitat social empresarial”. Des d’una perspectiva ètica, què en penses d’aquesta expressió i quines implicacions està tenint al món empresarial?
Els conceptes serveixen per representar allò possible i allò desitjable, per dir-nos el que és el cas i per orientar-nos, indicar-nos el camí a seguir. Però també serveixen per amagar la realitat, per encobrir situacions clarament injustes. Em temo que després de la pretensió de substituir el terme “responsabilitat social empresarial” pel de “capitalisme d’stakeholder” estiguem davant aquest segon cas. Dues raons per a aquesta desconfiança.
En primer lloc, el terme no és nou, remet a principis dels anys noranta, igual que el de “societat de stakeholder” o el de “capitalisme social”. En tots aquests casos s’intentava pensar en un model d’empresa capaç de superar l’autisme social i mediambiental en què actuava. Amb els seus pros i contres, estem davant les mateixes pretensions que la responsabilitat social de l’empresa: afirmar que el benefici empresarial no s’ha de confondre amb el negoci dels accionistes, sinó que també ha d’incloure totes les parts implicades i afectades per la seva activitat, inclòs el medi ambient. Però la responsabilitat social es refereix a l’empresa com a institució, pertany a la societat civil i té indicadors avaluables (GRI, ODS), per saber si avancem o retrocedim en els compromisos públics que en defineixen l’ètica, el caràcter. En introduir el terme capitalisme anem al sistema econòmic i es difumina la responsabilitat de l’empresa com a agent de justícia.
En segon lloc, presentar el concepte de “capitalisme d’stakeholder” com un nou concepte de capitalisme, i fer-ho en el context del Fòrum Econòmic Mundial, no mou precisament a la confiança. Relacionar aquest concepte amb altres com “el gran reinici” o “el nou contracte social” i fer-ho els qui han provocat la situació actual de desigualtat, pobresa, discriminació de persones i països, destrucció del medi ambient, etc., és pur i simple cinisme.
Anar més enllà d’una economia a curt termini, exigir que els valors orientin una distribució igual de càrregues i beneficis i es puguin convertir en béns per a totes les parts implicades i afectades per l’activitat empresarial, és una obligació moral de què depèn la credibilitat de l’empresa. Però no n’hi ha prou de dir-ho, fins i tot de desitjar-ho, hem de demostrar amb fets -mesurables, avaluables i comparables- que l’empresa s’esforça per caminar en aquesta direcció. Al meu entendre, la substitució proposada és només una maniobra de confusió, un intent de legitimar la injustícia regnant.
4. Actualment estàs treballant al camp de l’ètica i la intel·ligència artificial (IA). La IA ens està obligant a dubtar sobre el significat de la nostra condició humana? Per què?
Les ètiques aplicades han de donar raó del saber moral subjacent a la confiança dipositada en les diferents accions, pràctiques i institucions que conformen el teixit social i, en aquest sentit, han de respondre de les demandes de justícia que acompanyen l’actual revolució produïda per la intel·ligència artificial i les seves tecnologies. Aquest és el cas de les propostes actuals per al desenvolupament d’una ètica digital, ja que és impossible callar davant l’actual colonització algorítmica que està soscavant els pilars de la nostra convivència, afectant la nostra identitat, individual i col·lectiva, la nostra forma d’entendre i gestionar la nostra vida en comú.
Però aquest concepte d’intel·ligència artificial també porta a confusió. Quan parlem d’intel·ligència sempre ens referim a una propietat dels organismes biològics, dels éssers vius capaços d’interactuar per ells mateixos amb el seu entorn. En el cas dels éssers humans, de construir i donar sentit a la realitat. Tot i això, les dades són seleccionades i interpretades per éssers humans i els seus algoritmes dissenyats per assolir determinat resultat o resoldre un problema. Tots dos són creats pels experts a les seves empreses i centres de desenvolupament. Si els algoritmes de la Intel·ligència Artificial són capaços d’aprendre per ells mateixos és perquè així han estat programats. A partir d’aquestes entrades, la màquina pot calcular i aprendre més de pressa que els humans que l’han programada. En el cas de la Intel·ligència Artificial, fins i tot aconsegueix aprendre per sí mateixa. Però no arriba a anar més enllà de la lògica de les dades. Sense la intervenció humana no són res. Per això tampoc no és artificial, ja que prové de la nostra intel·ligència, del treball conjunt dels científics de dades, programadors, desenvolupadors, etc. Per això no es pot amagar, per més ideologia algorítmica que ho intenti, que les màquines no són les responsables, sinó els que les han creat i utilitzat, així com les organitzacions on desenvolupen el seu treball.
Com qualsevol altra tecnologia o conjunt de tecnologies, la Intel·ligència artificial pot entendre’s com un mitjà per millorar les nostres vides o com un fi comercial o polític al qual sacrificar la nostra llibertat i la nostra autonomia. No és bona ni dolenta, depèn de qui la manegi i per què. Atorgar responsabilitat a la màquina i els seus algoritmes és com donar la culpa del crim al ganivet utilitzat.
La condició humana i la dignitat en què es recolza no estan en perill per les tecnologies de la Intel·ligència Artificial, sinó per la voluntat de substituir les nostres decisions i accions per algoritmes, en nom del negoci i del poder d’uns i de la comoditat. inconsciència dels altres. El perill rau en l’opacitat d’aquestes tecnologies i en la manca de control per part dels que en patiran les conseqüències. Sense aquesta participació segur que no anem cap a una millora de la humanitat, com ens prometen, sinó cap a un augment de l’aïllament social i de la passivitat, cap a un món menys humà. Per això una de les primeres preguntes que hem de respondre des d’una ètica digital, fins i tot abans de dissenyar i programar, és què significa un algoritme just.
5. Les empreses tecnològiques estan ocupant les primeres posicions al rànquing de les més grans del món. Això fa pensar que el control del disseny i la gestió de la Intel·ligència Artificial està sota el poder d’interessos privats. Com podem aconseguir convertir el debat sobre el control del poder tecnològic en una qüestió democràtica?
Que la Intel·ligència Artificial i els seus algoritmes estructuren ja el nostre món és una realitat difícil de rebatre, igual que ho és que els seus amos i distribuïdors a través de les xarxes són les grans corporacions tecnològiques. És a dir, són dissenyades i gestionades des de l’interès privat, no pensant en el bé comú. Amb milions d’accionistes i milers de milions d’usuaris, aquestes empreses són un veritable centre de poder que no té cap escrúpol a influir en les eleccions i en els governs; a manipular l’opinió pública i esdevenir els nous i gairebé exclusius productors de la informació; a vendre la nostra privadesa, a fabricar els nostres desitjos, etc. Fins i tot crear realitats alternatives on els diners són la porta d’entrada. Són avui els qui tenen el poder més gran que existeix: la capacitat de crear sentit, de decidir el que és real o no ho és, del que és just o injust. Són els protagonistes de la creació i la mercantilització de les dades, sempre al servei del millor postor, sigui el mercat o l’estat. Dir que aquest nou leviatan no influeix i, fins i tot, afirmar que res no té veure amb la democràcia, és no voler veure la realitat en què vivim.
Quan parlem d’ètica, del que fem amb els nostres espais de llibertat, acostumem a aturar-nos en la conducta individual, en el nostre cas en la responsabilitat dels científics de dades, investigadors, programadors, accionistes, usuaris finals, etc. Oblidem que aquests espais de llibertat, aquesta presa de decisions i les conductes i pràctiques consegüents, es formen dins empreses i organitzacions; d’agències governamentals; de centres de recerca; etc. Vull dir que les ètiques aplicades, l’ètica digital en el nostre cas, no es pot reduir a la responsabilitat individual –per més importants i decisiva que sigui- també ha d’abastar les institucions, privades i públiques, en el si de les quals es creen i desenvolupen aquestes tecnologies, a l’empresa com a institució socioeconòmica.
No hem de convertir el debat sobre el poder de les grans tecnològiques en una qüestió democràtica, ja que ja ho és. No ho ha estat per a una democràcia que redueix la participació al vot cada quatre anys i tot el poder al poder polític. Però sí que ho és per a una democràcia de doble via que sap que només des de la complementació entre l’estat i la societat civil -origen de tota mena de poder i font de legitimitat, de credibilitat i confiança- és possible dissenyar mecanismes de seguiment i control de aquestes grans empreses. Com diu l’aposta de la Comissió Europea, necessitem una intel·ligència digital legal, ètica i sòlida. Per primera vegada apareix l’ètica com a condició de possibilitat d’una intel·ligència artificial que mereixi el qualificatiu de justa.
El poder tecnològic tindria així dues vies complementàries per al seu seguiment i control. D’una banda, l’estat i la regulació jurídica. Com bé sabem, el dret i les lleis actuen des de la coacció externa, des de la pressió de les sancions. De l’altra, els recursos morals de la societat civil que operen des del compromís i la pròpia voluntat, des del convenciment que així hem d’actuar. Per cert, un compromís esperat per part de totes les parts implicades i interessades i del compliment de les quals depèn la confiança. És aquí on entren els mecanismes ètics d’autoregulació, cosa que jo anomeno una infraestructura ètica, aplicable a qualsevol tipus d’institució tingui la mida que tingui, sigui privada o pública. Un sistema de gestió ètica de la confiança que inclou codis ètics i de bon govern, memòries de responsabilitat, comitès d’ètica, auditories, etc. Elements que permetin la participació de tots els grups d’interès, d’una manera mesurable i avaluable. Quan parlem de mecanismes voluntaris no parlem d’arbitrarietat o de discrecionalitat dels directius, sinó del compromís ferm i públic de totes les parts implicades. No hem de confondre cap empresa amb negoci.
Del poder que de fet tenen els recursos morals que posseeix la societat civil en dóna bon compte l’interès de les grans tecnològiques per apropiar-se de la paraula ètica, per tal de servir de cobriment o façana per a un comportament immoral i per frenar la regulació jurídica. Però, com mostra la fallida creació del comitè d’ètica de Google, encara no han après que els recursos morals són fruit d’un saber, d’una capacitat compartida i que, per tant, no es poden instrumentalitzar a voluntat. L’única cosa que han aconseguit amb aquesta farsa és fer el ridícul i augmentar la desconfiança a l’empresa.
6. La convergència de la Intel·ligència Artificial, el Big Data i Internet de les coses està donant lloc a propostes democràtiques basades en algoritmes, models matemàtics de decisió i ús massiu de dades. Quins són els riscos, els límits o les conseqüències de l’aplicació d’un sistema democràtic sustentat sobre algoritmes i macro-dades?
El principi democràtic es refereix a la idea regulativa que han de ser els mateixos els que prenen les decisions i els que en pateixen les conseqüències. Per tant, per més feble que sigui, el nucli moral que tot sistema democràtic pressuposa es troba a la nostra dignitat, a la nostra capacitat de ser lliures per participar en totes les decisions que ens afecten. Des d’aquest horitzó d’acció, la participació no es pot ni ha de limitar a la participació política, ha d’incloure totes aquelles institucions que tenen poder i requereixen, per tant, legitimitat. La credibilitat depèn, en primer lloc, de l’horitzó d’acció que representa el diàleg i l’acord entre tots els grups d’interès.
Juntament amb el professor Patrici Calvo estem treballant en el concepte de democràcia algorítmica, com un exemple de propostes democràtiques basades en les tecnologies de la intel·ligència artificial. Amb aquest nom ens referim a un sistema d’organització social i de governança política l’horitzó d’actuació del qual radica a substituir en tots els processos de presa de decisions, ja sigui en les polítiques públiques, en participació electoral, en el sistema policial i judicial, etc., la participació ciutadana per els algorismes. No es tracta que els algorismes poden ajudar a prendre decisions per assolir les finalitats democràtiques de forma més eficient, eficaç i precisa. Es tracta més aviat, atesa la deriva actual de les nostres democràcies, de reemplaçar la participació dels afectats per les Intel·ligència Artificial i les seves tecnologies en tots els processos de deliberació, decisió i disseny institucional, tant a l’estat com a la societat civil.
Com a model de democràcia, aquesta proposta és autodestructiva, per més fascinació que produeixi la falsa neutralitat i objectivitat dels algoritmes i les dades, i, per tant, la seva eficàcia a l’hora d’assolir una societat més justa. Des del nostre punt de vista, amb el concepte de democràcia algorítmica no es pretén introduir un nou model de democràcia, totalment impossible si pensem abandonar la nostra llibertat i autonomia, la nostra dignitat, en suma, en mans dels algoritmes. Amb aquest concepte es pretén més aviat visibilitzar el perill que suposa la substitució creixent de la participació i l’autonomia en la presa de decisions i en la formació de l’opinió pública, per les dades i els algoritmes. Quan ens adonem del pas del suport o reforç a la substitució, ja sol ser massa tard, com bé mostra la mala utilització de la Intel·ligència Artificial en el sistema judicial o creditici, per no entrar en el tema dels actuals tecno-populismes. Recordem que la neutralitat i objectivitat només ens mostren qui té el poder de donar sentit a la realitat.
7. Com pot afectar la IA, des d’una perspectiva ètica, la presa de decisions a l’àmbit les empreses? I a la democràcia? Quins són els principals riscos que planteja a les organitzacions, als governs i a la ciutadania?
En tots els àmbits de la vida en comú la introducció de la Intel·ligència Artificial està fent aportacions valuoses que, de ben segur, estan millorant la presa de decisions, des de la medicina a l’economia, passant per l’educació. Però hem d’identificar bé el risc més important que correm que, al meu entendre, no és cap altre que defugir la responsabilitat pel que fem o deixem de fer.
Els algoritmes no són neutres. En primer lloc, les decisions preses pels algoritmes poden ser dades incompletes i, per tant, no fiables, poden ser esbiaixades o simplement estar equivocades. En segon lloc, els biaixos poden sorgir tant dels valors socials preexistents que es troben a les institucions, pràctiques i actituds socials, de les que sorgeix la tecnologia, com de les persones que manegen les dades en origen i, per descomptat, dels interessos que s’esperen satisfer, dels tipus de preferències incorporades als algoritmes. En tercer lloc, els algoritmes són cada cop més complexos i opacs, de manera que en molts casos no és possible ni explicar com funcionen, ni molt menys admeten el re-disseny una vegada en marxa. I així tot un llarg etcètera.
Podríem continuar intentant visibilitzar allò que només des de la fascinació per l’interès tècnic de domini es pot ignorar: hi ha un marc de sentit, una reducció de la realitat a allò mesurable i quantificable que pressuposa un interès previ, un interès per l’objectivació i la matematització, una predisposició guiada per uns valors concrets que no tenen res de neutrals. Les dades són el producte d’una decisió prèvia sobre allò que és real o no ho és, d’una valoració.
Per exemple, posseir quantes més dades possibles, tant com a punt de partida com per mesurar els resultats, és clau en la presa de decisions en les polítiques públiques, però juntament amb els instruments de la intel·ligència artificial, hem de definir qui hi participa i quins criteris utilitza per a la valoració de les mateixes, per a la seva avaluació. Qui defineix aquests criteris? Qui mesura les conseqüències? Des d’on i com recullen les dades? Més encara, davant què es contrasten? No estem negant que els radars no siguin necessaris per conduir el vaixell, estem dient que volem decidir a quin port volem arribar, on volem anar, com volem viure en comú. No hem de confondre el mapa amb el territori.
Anem al cas de l’empresa. Actualment hi ha una forta pressió de les administracions per incorporar les noves tecnologies a les empreses, encara que en molts casos no se sap ben bé què poden aportar a la competitivitat i a l’eficiència en la gestió. Ara bé, si vols accedir als ajuts públics, ja saps: des de l’automatització de tot allò automatitzable, passant per l’elecció del personal per un algoritme, fins al control del temps que necessitem per anar al servei. La darrera proposta que vaig haver de debatre va ser la utilització del reconeixement facial per mesurar el clima laboral.
La ciutadania també s’ha vist minvada per la introducció de les noves tecnologies d’intel·ligència artificial. Des de no poder accedir a la informació necessària per demanar certificats, permisos, etc. fins a trobar-te amb un mur anomenat sistema: “res no podem fer: és el sistema”. Resultat: l’augment de la desigualtat i, per tant, de la injustícia. Necessitem una ciutadania digital i hem de començar per afirmar que cap decisió que ens afecti no es pot prendre sense la intervenció humana, en especial dels que en patiran les conseqüències. Aquesta és la clau que uneix ètica i democràcia en parlar d’intel·ligència artificial.
8. Finalment, si haguessis d’il·lustrar, amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions, quines serien?
Atès que algunes de les meves respostes han estat probablement massa extenses, conclouré de forma més breu, ja que em sobra amb dues paraules: generar confiança. Aquesta és l’aportació més important de l’ètica a la presa de decisions. És hora d’abandonar la idea de l’ètica només com a limitació i passiu per a l’empresa. És una capacitat que tenim tots els éssers humans que es pot convertir en un actiu per a l’empresa, en un factor d’innovació i avenç cap a una democràcia, com diria Adela Cortina, radical i autèntica. Una ètica empresarial ha de ser conscient de la seva aportació al sistema democràtic, ja que quan parlem de confiar en els algoritmes parlem de confiar tant en els experts com en les empreses on es dissenyen, es desenvolupen i s’apliquen aquestes tecnologies.
Simplificant en dues paraules: generar confiança!