Connexions beethik: entrevista a Idoia Portilla

Doctora en CC. Econòmiques i Empresarials per la Universidad de Navarra. Professora d’Estadística i Investigació de Mercats en la Facultat de Comunicació de la Universidad de Navarra.

Presidenta del Comité de Ética de Insights + Analytics España.

Autora de nombroses publicacions, la seva investigació es centra en el mesurament d’audiències, especialment en televisió i internet i en la metodologia de recerca i qüestions ètiques vinculades a la investigació de mercats, el big data i la neurociència.

1. Què et suggereix el concepte d’ètica de la responsabilitat radical?

Atès que la meva vinculació amb l’estudi de l’ètica ha estat la professió d’investigador de mercats i d’analista d’informació, el concepte d’ètica de la responsabilitat radical m’ha suggerit dues coses: la professionalitat i la cura de les persones.

Segons la RAE, quan diem que una persona és un professional, ens referim a “que exerceix la seva professió amb capacitat i aplicació rellevants”. Personalment ho simplifico en el “bon fer”, sigui quina sigui la professió que exercim. I aquest bon fer necessita que siguem ètics.

Però, com deia, ser ètics també suposa tenir cura de les persones. En exercir una professió, interactuem amb els nostres companys, amb clients i amb el públic en general. Ser ètics suposa no perjudicar-los de cap manera amb les nostres actuacions. Això comporta evitar danys econòmics innecessaris, però també altres com la pèrdua de temps o perjudicar la imatge.


2. Actualment ets la presidenta del Comitè d’Ètica d’Insights+Analytics España, un òrgan creat per atendre consultes i preguntes relatives a la pràctica dels projectes de recerca de mercats i data science. Quins són els principals conflictes de valor a què s’enfronten els professionals en aquestes àrees avui dia?

El tema més actual pot ser el maneig d’informació ja disponible, procedent del que s’anomenen fonts secundàries d’informació. Són fonts cada cop més abundants, gràcies a la digitalització i les polítiques de dades obertes (open-data). Parlem de grans volums de dades, en molts casos, de persones. S’han d’haver recollit correctament, complint la legalitat, i només es podran compartir si es compleixen les condicions acordades amb el titular de les dades. És a dir, li aplica la legislació de protecció de dades, però també qüestions ètiques. Per això, l’associació internacional ESOMAR de professionals de la investigació ha proposat una guia fent recomanacions per complir la llei, però també evitar perjudicar la professió, els clients o els particulars. (link a la guía).


3. En algunes de les teves comunicacions has compartit la necessitat de tenir una cura especial en la recerca en línia quan es tracta de col·lectius vulnerables, com els menors, o en els límits de la recerca del contingut publicat en xarxes socials, per exemple. Quins consideres que són els principals riscos ètics de la investigació de mercats avui dia?

Entre les consultes rebudes al nostre comitè ètic destacaria aquelles relacionades amb recollir informació de menors d’edat, però també les de temes sensibles com el consum de tabac o de begudes alcohòliques.

Amb el desenvolupament de la recerca en línia, també es van plantejar dubtes. Per exemple, com identificar un menor a internet per no fer-li arribar un qüestionari inadequat. Per evitar-ho, actualment es treballa amb els anomenats panells d’internautes. Aquestes persones s’han donat d’alta voluntàriament per rebre enquestes, donant el seu consentiment, i és possible assegurar-se que no pertanyen a un grup vulnerable. És a dir, que la tecnologia ha ofert problemes i solucions.

Respecte a les xarxes socials o altres plataformes en línia, la tecnologia permetia la captura de tota mena d’informació i semblava que tot valia. Actualment, les plataformes tenen unes polítiques de privadesa més clares. A més a més, des del punt de vista ètic, s’han publicat codis. Aquests donen recomanacions com no identificar els subjectes o evitar publicar contingut que pugui deixar malament una persona. Això ha ajudat el sector i el desenvolupament de millors tecnologies.


4. En un article publicat el 2019 sobre “Gestió de dades: regles ètiques i legislació” afirmaves que “l’ètica en el maneig de dades és rendible perquè minimitza les dades emmagatzemades en volum i temps, reduint els recursos necessaris, és a dir, els costos en personal, temps i diners. Però també és rendible perquè una empresa que tingui cura de la seva gestió de dades tindrà més bona reputació”. Les organitzacions són conscients d’aquests beneficis? L’ètica s’està contemplant en el maneig de dades?

Hi ha nombrosos estudis que mostren que els ciutadans europeus, i també en altres països, es preocupen cada cop més per la seva privadesa. Aquests estudis mostren que hem deixat de compartir dades personals, per exemple, limitant la instal·lació d’algunes galetes quan entrem a pàgines web.

Tot i això, les empreses continuen necessitant dades de persones per prendre decisions, i no es poden arriscar a perdre-les actuant de manera inapropiada. Per això, ja es fa servir la transparència com a mostra de qualitat i professionalitat. Un reflex d’això és la creixent oferta d’empreses tecnològiques que ajuden a capturar dades de clients de manera senzilla i transparent. Són empreses que ofereixen plataformes per a la recollida d’informació pròpia, l’anomenat first party data, atès que s’anuncia la fi de les galetes de tercers que limitarà l’accés a informacions utilitzades per enviar-nos publicitat, per exemple.


5. Sembla clar que les organitzacions hauran d’incorporar sistemes de gestió del big data per poder ser competitives. Es pot produir una bretxa entre les empreses que tenen recursos i eines per a la seva gestió i aquelles que no s’ho poden permetre? Podria evitar-se aquest fet d’alguna manera?

Les empreses grans disposen de bases de dades pròpies molt riques, i generalment tenen recursos per accedir a moltes altres. Per contra, les empreses petites i mitjanes no disposen de bases de dades de tant de valor i els seus recursos per accedir a altres fonts són limitats. Per això, el parlament europeu (amb la seva directiva de Governança de dades) està intentant evitar que es produeixi aquesta bretxa, exigint que s’obri l’accés a un gran nombre de bases de dades. Veurem si és possible.

Però, a més de l’accés a la informació, caldrà més professionals capaços de gestionar-la i explotar-la adequadament. Aquest tipus de perfils són essencials per a la democratització de la dada. Actualment, la demanda supera l’oferta, però la gran disponibilitat de cursos de formació en aquestes àrees podrà tancar de mica en mica aquesta bretxa.


6.  La neurociència ha demostrat que la presa de decisions és en gran part inconscient i amb base emocional, per la qual cosa es poden donar pràctiques que intentin influenciar en aquesta dimensió. Quines són les claus per assegurar un comportament ètic del neuromàrqueting?

La neurociència està ben regulada per lleis i codis mèdics, i també hi apliquen codis propis, els d’investigació de mercats o la legislació de protecció de dades. Està ben regulat respecte com fer-se.

Al meu entendre, els dubtes ètics venen del costat dels usos que es doni a la informació. Així, és freqüent associar la neurociència amb influenciar algú perquè compri alguna cosa de manera irracional, prement l’anomenat “botó de compra”. Per tant, les claus per a un comportament ètic són l’ús de la informació procedent de la neurociència. És en aquest aspecte on s’està incidint en medicina, i on caldrà donar pautes als professionals del màrqueting.


7. A les línies de recerca sobre la interacció dels joves adults amb les notícies i la publicitat en línia en què has participat heu conclòs que els joves perceben la publicitat com a molesta. Però moltes vegades sembla que les empreses no tenen en compte els efectes de les seves accions sobre la percepció de les marques. Creus que haurien de plantejar-se canvis en aquestes polítiques per provocar més engagement dels potencials consumidors?

Els anunciants saben que la publicitat pot molestar quan ens interromp allò que estem fent. No obstant, la necessiten per recordar-nos que hi són, per presentar-nos les seves novetats o fer-nos sentir millor per consumir les seves marques. I no estan sols en aquesta tasca. La publicitat també interessa als mitjans de comunicació i les agències de publicitat, ja que hi guanyen diners. Fins i tot poden ser ells, aquests intermediaris entre els anunciants i el públic, els responsables de la publicitat més intrusiva, buscant més ingressos. Són, per tant, els tres agents els que han d’establir polítiques adequades. Per part meva, defenso l’autoregulació, ja que limitar la saturació publicitària, per exemple, considero que seria beneficiós per a tots.


8. A la teva activitat docent comparteixes el teu dia a dia amb les i els joves que lideraran la comunicació en els propers anys al nostre país. Has observat algun canvi al sistema de valors entre les generacions actuals i les anteriors? Creus que els plans formatius contemplen adequadament la reflexió ètica per a l’exercici de la professió?

Crec que les noves generacions (igual que gran part de la societat) es preocupen cada cop més per qüestions com el canvi climàtic o la sostenibilitat. Els atrauen les empreses amb valors, que donin suport a causes socials o siguin sostenibles, però de manera sincera. Tenen accés a molta informació i no els agrada que els menteixin.

Pel que fa a la formació, a la meva universitat sempre s’ha format en ètica i deontologia. Sempre ha estat un punt fort i creiem que les empreses ho valoren.


9. Finalment, si haguessis d’il·lustrar amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions quines serien?

És una pregunta difícil però, tornant al que deia a la primera pregunta, em quedaria amb les paraules, “transparència” i “professionalitat”, més “cura de les persones”.

Considero que cal explicar allò que es fa, ser transparents en els motius pel que es recull una informació o per què s’ajusta un pressupost. També considero que la professionalitat i l’ètica van unides. Crec que no es pot ésser un bon professional sense ser ètic. I això em porta al tercer aspecte, la cura de les persones, on incloc companys de feina, clients, proveïdors i el públic en general. A l’hora de prendre decisions, hauríem de tenir en compte les persones. Caldria tenir cura que no es vegin perjudicades o prendre aquelles decisions que evitin perjudicis més grans. No crec que això serà fàcil, però em sembla un bon criteri que millora el nostre entorn i a nosaltres mateixos.


Connexions beethik: entrevista a Domingo García-Marzá

Catedràtic d’Ética de la Universidad Jaume I de Castelló. Ha ampliat estudis de Filosofia Política a Frankfurt (Alemanya) i d’Ètica econòmica a ST.Gallen (Suïssa), així com a la Universitat de Notre Dame (Estats Units). Les seves línies de recerca inclouen: ètica empresarial, democràcia deliberativa, disseny institucional, societat civil, ètica de la intel·ligència artificial i democràcia algorísmica. Ha escrit nombrosos llibres i articles. Actualment és Director del Departament de Filosofia i Sociologia.


1. Què et suggereix el concepte d’ètica de la responsabilitat radical?

El predicat radical introdueix sempre la idea d’anar a l’origen, a l’arrel, al fonament de les qüestions, les activitats o les pràctiques. Això significa, al meu parer, que, en acompanyar el concepte de responsabilitat, incideix en el seu significat primari: reconèixer que responsabilitat ve de respondre, de dir i fer allò que s’espera de nosaltres, tant de les persones com de les institucions. Per exemple, quan parlem d’una “empresa responsable” o d’una “universitat responsable”, estem dient que són capaços de respondre del que se n’espera. Això és el que anomenem ètica: un caràcter obert a la responsabilitat, capaç de donar raó del que fa o deixa de fer. Radical indicaria així una responsabilitat completa i sincera. D’aquesta capacitat de respondre davant dels altres depèn la generació i el manteniment de la confiança.


2. Fa divuit anys vas publicar “Ètica empresarial. Del diàleg a la confiança”, un llibre de capçalera per a molts dels que començàvem a treballar a l’àmbit de la responsabilitat social empresarial. Ens pots explicar fins a quin punt la tesi que defensaves ara resulta d’actualitat?

Crec sincerament que avui s’aprecia millor la innovació que el llibre va representar en el seu moment i també la seva actualitat, ja que desenvolupa les idees bàsiques per entendre la relació entre ètica i confiança, entre l’ètica empresarial i les bases ètiques de la confiança dipositada a l’empresa. Unes idees que tenen a veure tant amb la presa de decisions a l’empresa com amb el disseny institucional de les mateixes. La confiança és la clau del llibre i a ella se’n dediquen les pàgines centrals. Allí s’expliquen idees com el contracte moral subjacent a la credibilitat de l’empresa, la potencialitat de la teoria dels stakeholder per concretar i gestionar el diàleg i acord entre els grups d’interès, així com una visió de l’empresa com a institució on la participació i el valor compartit són les principals orientacions, etc.

El llibre, però, no s’atura en una filosofia d’empresa. S´atreveix a complementar l´ètica del discurs amb la teoria dels stakeholder, passant de la teoria a la pràctica, a una proposta d´un sistema integrat per a la gestió de l´ètica a l´empresa, d´un disseny institucional capaç de generar confiança. Un disseny basat en una infraestructura ètica que conté des d’una nova generació de codis ètics, fins a la proposta d’una auditoria ètica, passant pels comitès d’ètica i els informes de sostenibilitat.

Un bon exemple d’aquesta actualitat és la tesi principal del llibre: la responsabilitat social empresarial o forma part de l’ètica empresarial, del caràcter de l’empresa, del seu compromís sincer i públic, o és un simple instrument per al benefici econòmic dels accionistes i propietaris. Sense el marc d’una ètica empresarial no podem visibilitzar la manipulació i la instrumentalització que contínuament es fa de la responsabilitat social empresarial, menys encara aprofitar l’actiu que suposa l’ètica per generar confiança.


3. Ara es comença a utilitzar l’expressió “capitalisme de stakeholder”, com una expressió actualitzada del que en el seu moment es va anomenar “responsabilitat social empresarial”. Des d’una perspectiva ètica, què en penses d’aquesta expressió i quines implicacions està tenint al món empresarial?

Els conceptes serveixen per representar allò possible i allò desitjable, per dir-nos el que és el cas i per orientar-nos, indicar-nos el camí a seguir. Però també serveixen per amagar la realitat, per encobrir situacions clarament injustes. Em temo que després de la pretensió de substituir el terme “responsabilitat social empresarial” pel de “capitalisme d’stakeholder” estiguem davant aquest segon cas. Dues raons per a aquesta desconfiança.

En primer lloc, el terme no és nou, remet a principis dels anys noranta, igual que el de “societat de stakeholder” o el de “capitalisme social”. En tots aquests casos s’intentava pensar en un model d’empresa capaç de superar l’autisme social i mediambiental en què actuava. Amb els seus pros i contres, estem davant les mateixes pretensions que la responsabilitat social de l’empresa: afirmar que el benefici empresarial no s’ha de confondre amb el negoci dels accionistes, sinó que també ha d’incloure totes les parts implicades i afectades per la seva activitat, inclòs el medi ambient. Però la responsabilitat social es refereix a l’empresa com a institució, pertany a la societat civil i té indicadors avaluables (GRI, ODS), per saber si avancem o retrocedim en els compromisos públics que en defineixen l’ètica, el caràcter. En introduir el terme capitalisme anem al sistema econòmic i es difumina la responsabilitat de l’empresa com a agent de justícia.

En segon lloc, presentar el concepte de “capitalisme d’stakeholder” com un nou concepte de capitalisme, i fer-ho en el context del Fòrum Econòmic Mundial, no mou precisament a la confiança. Relacionar aquest concepte amb altres com “el gran reinici” o “el nou contracte social” i fer-ho els qui han provocat la situació actual de desigualtat, pobresa, discriminació de persones i països, destrucció del medi ambient, etc., és pur i simple cinisme.

Anar més enllà d’una economia a curt termini, exigir que els valors orientin una distribució igual de càrregues i beneficis i es puguin convertir en béns per a totes les parts implicades i afectades per l’activitat empresarial, és una obligació moral de què depèn la credibilitat de l’empresa. Però no n’hi ha prou de dir-ho, fins i tot de desitjar-ho, hem de demostrar amb fets -mesurables, avaluables i comparables- que l’empresa s’esforça per caminar en aquesta direcció. Al meu entendre, la substitució proposada és només una maniobra de confusió, un intent de legitimar la injustícia regnant.


4. Actualment estàs treballant al camp de l’ètica i la intel·ligència artificial (IA). La IA ens està obligant a dubtar sobre el significat de la nostra condició humana? Per què?

Les ètiques aplicades han de donar raó del saber moral subjacent a la confiança dipositada en les diferents accions, pràctiques i institucions que conformen el teixit social i, en aquest sentit, han de respondre de les demandes de justícia que acompanyen l’actual revolució produïda per la intel·ligència artificial i les seves tecnologies. Aquest és el cas de les propostes actuals per al desenvolupament d’una ètica digital, ja que és impossible callar davant l’actual colonització algorítmica que està soscavant els pilars de la nostra convivència, afectant la nostra identitat, individual i col·lectiva, la nostra forma d’entendre i gestionar la nostra vida en comú.

Però aquest concepte d’intel·ligència artificial també porta a confusió. Quan parlem d’intel·ligència sempre ens referim a una propietat dels organismes biològics, dels éssers vius capaços d’interactuar per ells mateixos amb el seu entorn. En el cas dels éssers humans, de construir i donar sentit a la realitat. Tot i això, les dades són seleccionades i interpretades per éssers humans i els seus algoritmes dissenyats per assolir determinat resultat o resoldre un problema. Tots dos són creats pels experts a les seves empreses i centres de desenvolupament. Si els algoritmes de la Intel·ligència Artificial són capaços d’aprendre per ells mateixos és perquè així han estat programats. A partir d’aquestes entrades, la màquina pot calcular i aprendre més de pressa que els humans que l’han programada. En el cas de la Intel·ligència Artificial, fins i tot aconsegueix aprendre per sí mateixa. Però no arriba a anar més enllà de la lògica de les dades. Sense la intervenció humana no són res. Per això tampoc no és artificial, ja que prové de la nostra intel·ligència, del treball conjunt dels científics de dades, programadors, desenvolupadors, etc. Per això no es pot amagar, per més ideologia algorítmica que ho intenti, que les màquines no són les responsables, sinó els que les han creat i utilitzat, així com les organitzacions on desenvolupen el seu treball.

Com qualsevol altra tecnologia o conjunt de tecnologies, la Intel·ligència artificial pot entendre’s com un mitjà per millorar les nostres vides o com un fi comercial o polític al qual sacrificar la nostra llibertat i la nostra autonomia. No és bona ni dolenta, depèn de qui la manegi i per què. Atorgar responsabilitat a la màquina i els seus algoritmes és com donar la culpa del crim al ganivet utilitzat.

La condició humana i la dignitat en què es recolza no estan en perill per les tecnologies de la Intel·ligència Artificial, sinó per la voluntat de substituir les nostres decisions i accions per algoritmes, en nom del negoci i del poder d’uns i de la comoditat. inconsciència dels altres. El perill rau en l’opacitat d’aquestes tecnologies i en la manca de control per part dels que en patiran les conseqüències. Sense aquesta participació segur que no anem cap a una millora de la humanitat, com ens prometen, sinó cap a un augment de l’aïllament social i de la passivitat, cap a un món menys humà. Per això una de les primeres preguntes que hem de respondre des d’una ètica digital, fins i tot abans de dissenyar i programar, és què significa un algoritme just.


5. Les empreses tecnològiques estan ocupant les primeres posicions al rànquing de les més grans del món. Això fa pensar que el control del disseny i la gestió de la Intel·ligència Artificial està sota el poder d’interessos privats. Com podem aconseguir convertir el debat sobre el control del poder tecnològic en una qüestió democràtica?

Que la Intel·ligència Artificial i els seus algoritmes estructuren ja el nostre món és una realitat difícil de rebatre, igual que ho és que els seus amos i distribuïdors a través de les xarxes són les grans corporacions tecnològiques. És a dir, són dissenyades i gestionades des de l’interès privat, no pensant en el bé comú. Amb milions d’accionistes i milers de milions d’usuaris, aquestes empreses són un veritable centre de poder que no té cap escrúpol a influir en les eleccions i en els governs; a manipular l’opinió pública i esdevenir els nous i gairebé exclusius productors de la informació; a vendre la nostra privadesa, a fabricar els nostres desitjos, etc. Fins i tot crear realitats alternatives on els diners són la porta d’entrada. Són avui els qui tenen el poder més gran que existeix: la capacitat de crear sentit, de decidir el que és real o no ho és, del que és just o injust. Són els protagonistes de la creació i la mercantilització de les dades, sempre al servei del millor postor, sigui el mercat o l’estat. Dir que aquest nou leviatan no influeix i, fins i tot, afirmar que res no té veure amb la democràcia, és no voler veure la realitat en què vivim.

Quan parlem d’ètica, del que fem amb els nostres espais de llibertat, acostumem a aturar-nos en la conducta individual, en el nostre cas en la responsabilitat dels científics de dades, investigadors, programadors, accionistes, usuaris finals, etc. Oblidem que aquests espais de llibertat, aquesta presa de decisions i les conductes i pràctiques consegüents, es formen dins empreses i organitzacions; d’agències governamentals; de centres de recerca; etc. Vull dir que les ètiques aplicades, l’ètica digital en el nostre cas, no es pot reduir a la responsabilitat individual –per més importants i decisiva que sigui- també ha d’abastar les institucions, privades i públiques, en el si de les quals es creen i desenvolupen aquestes tecnologies, a l’empresa com a institució socioeconòmica.

No hem de convertir el debat sobre el poder de les grans tecnològiques en una qüestió democràtica, ja que ja ho és. No ho ha estat per a una democràcia que redueix la participació al vot cada quatre anys i tot el poder al poder polític. Però sí que ho és per a una democràcia de doble via que sap que només des de la complementació entre l’estat i la societat civil -origen de tota mena de poder i font de legitimitat, de credibilitat i confiança- és possible dissenyar mecanismes de seguiment i control de aquestes grans empreses. Com diu l’aposta de la Comissió Europea, necessitem una intel·ligència digital legal, ètica i sòlida. Per primera vegada apareix l’ètica com a condició de possibilitat d’una intel·ligència artificial que mereixi el qualificatiu de justa.

El poder tecnològic tindria així dues vies complementàries per al seu seguiment i control. D’una banda, l’estat i la regulació jurídica. Com bé sabem, el dret i les lleis actuen des de la coacció externa, des de la pressió de les sancions. De l’altra, els recursos morals de la societat civil que operen des del compromís i la pròpia voluntat, des del convenciment que així hem d’actuar. Per cert, un compromís esperat per part de totes les parts implicades i interessades i del compliment de les quals depèn la confiança. És aquí on entren els mecanismes ètics d’autoregulació, cosa que jo anomeno una infraestructura ètica, aplicable a qualsevol tipus d’institució tingui la mida que tingui, sigui privada o pública. Un sistema de gestió ètica de la confiança que inclou codis ètics i de bon govern, memòries de responsabilitat, comitès d’ètica, auditories, etc. Elements que permetin la participació de tots els grups d’interès, d’una manera mesurable i avaluable. Quan parlem de mecanismes voluntaris no parlem d’arbitrarietat o de discrecionalitat dels directius, sinó del compromís ferm i públic de totes les parts implicades. No hem de confondre cap empresa amb negoci.

Del poder que de fet tenen els recursos morals que posseeix la societat civil en dóna bon compte l’interès de les grans tecnològiques per apropiar-se de la paraula ètica, per tal de servir de cobriment o façana per a un comportament immoral i per frenar la regulació jurídica. Però, com mostra la fallida creació del comitè d’ètica de Google, encara no han après que els recursos morals són fruit d’un saber, d’una capacitat compartida i que, per tant, no es poden instrumentalitzar a voluntat. L’única cosa que han aconseguit amb aquesta farsa és fer el ridícul i augmentar la desconfiança a l’empresa.


6. La convergència de la Intel·ligència Artificial, el Big Data i Internet de les coses està donant lloc a propostes democràtiques basades en algoritmes, models matemàtics de decisió i ús massiu de dades. Quins són els riscos, els límits o les conseqüències de l’aplicació d’un sistema democràtic sustentat sobre algoritmes i macro-dades?

El principi democràtic es refereix a la idea regulativa que han de ser els mateixos els que prenen les decisions i els que en pateixen les conseqüències. Per tant, per més feble que sigui, el nucli moral que tot sistema democràtic pressuposa es troba a la nostra dignitat, a la nostra capacitat de ser lliures per participar en totes les decisions que ens afecten. Des d’aquest horitzó d’acció, la participació no es pot ni ha de limitar a la participació política, ha d’incloure totes aquelles institucions que tenen poder i requereixen, per tant, legitimitat. La credibilitat depèn, en primer lloc, de l’horitzó d’acció que representa el diàleg i l’acord entre tots els grups d’interès.

Juntament amb el professor Patrici Calvo estem treballant en el concepte de democràcia algorítmica, com un exemple de propostes democràtiques basades en les tecnologies de la intel·ligència artificial. Amb aquest nom ens referim a un sistema d’organització social i de governança política l’horitzó d’actuació del qual radica a substituir en tots els processos de presa de decisions, ja sigui en les polítiques públiques, en participació electoral, en el sistema policial i judicial, etc., la participació ciutadana per els algorismes. No es tracta que els algorismes poden ajudar a prendre decisions per assolir les finalitats democràtiques de forma més eficient, eficaç i precisa. Es tracta més aviat, atesa la deriva actual de les nostres democràcies, de reemplaçar la participació dels afectats per les Intel·ligència Artificial i les seves tecnologies en tots els processos de deliberació, decisió i disseny institucional, tant a l’estat com a la societat civil.

Com a model de democràcia, aquesta proposta és autodestructiva, per més fascinació que produeixi la falsa neutralitat i objectivitat dels algoritmes i les dades, i, per tant, la seva eficàcia a l’hora d’assolir una societat més justa. Des del nostre punt de vista, amb el concepte de democràcia algorítmica no es pretén introduir un nou model de democràcia, totalment impossible si pensem abandonar la nostra llibertat i autonomia, la nostra dignitat, en suma, en mans dels algoritmes. Amb aquest concepte es pretén més aviat visibilitzar el perill que suposa la substitució creixent de la participació i l’autonomia en la presa de decisions i en la formació de l’opinió pública, per les dades i els algoritmes. Quan ens adonem del pas del suport o reforç a la substitució, ja sol ser massa tard, com bé mostra la mala utilització de la Intel·ligència Artificial en el sistema judicial o creditici, per no entrar en el tema dels actuals tecno-populismes. Recordem que la neutralitat i objectivitat només ens mostren qui té el poder de donar sentit a la realitat.


7. Com pot afectar la IA, des d’una perspectiva ètica, la presa de decisions a l’àmbit les empreses? I a la democràcia? Quins són els principals riscos que planteja a les organitzacions, als governs i a la ciutadania?

En tots els àmbits de la vida en comú la introducció de la Intel·ligència Artificial està fent aportacions valuoses que, de ben segur, estan millorant la presa de decisions, des de la medicina a l’economia, passant per l’educació. Però hem d’identificar bé el risc més important que correm que, al meu entendre, no és cap altre que defugir la responsabilitat pel que fem o deixem de fer.

Els algoritmes no són neutres. En primer lloc, les decisions preses pels algoritmes poden ser dades incompletes i, per tant, no fiables, poden ser esbiaixades o simplement estar equivocades. En segon lloc, els biaixos poden sorgir tant dels valors socials preexistents que es troben a les institucions, pràctiques i actituds socials, de les que sorgeix la tecnologia, com de les persones que manegen les dades en origen i, per descomptat, dels interessos que s’esperen satisfer, dels tipus de preferències incorporades als algoritmes. En tercer lloc, els algoritmes són cada cop més complexos i opacs, de manera que en molts casos no és possible ni explicar com funcionen, ni molt menys admeten el re-disseny una vegada en marxa. I així tot un llarg etcètera.

Podríem continuar intentant visibilitzar allò que només des de la fascinació per l’interès tècnic de domini es pot ignorar: hi ha un marc de sentit, una reducció de la realitat a allò mesurable i quantificable que pressuposa un interès previ, un interès per l’objectivació i la matematització, una predisposició guiada per uns valors concrets que no tenen res de neutrals. Les dades són el producte d’una decisió prèvia sobre allò que és real o no ho és, d’una valoració.

Per exemple, posseir quantes més dades possibles, tant com a punt de partida com per mesurar els resultats, és clau en la presa de decisions en les polítiques públiques, però juntament amb els instruments de la intel·ligència artificial, hem de definir qui hi participa i quins criteris utilitza per a la valoració de les mateixes, per a la seva avaluació. Qui defineix aquests criteris? Qui mesura les conseqüències? Des d’on i com recullen les dades? Més encara, davant què es contrasten? No estem negant que els radars no siguin necessaris per conduir el vaixell, estem dient que volem decidir a quin port volem arribar, on volem anar, com volem viure en comú. No hem de confondre el mapa amb el territori.

Anem al cas de l’empresa. Actualment hi ha una forta pressió de les administracions per incorporar les noves tecnologies a les empreses, encara que en molts casos no se sap ben bé què poden aportar a la competitivitat i a l’eficiència en la gestió. Ara bé, si vols accedir als ajuts públics, ja saps: des de l’automatització de tot allò automatitzable, passant per l’elecció del personal per un algoritme, fins al control del temps que necessitem per anar al servei. La darrera proposta que vaig haver de debatre va ser la utilització del reconeixement facial per mesurar el clima laboral.

La ciutadania també s’ha vist minvada per la introducció de les noves tecnologies d’intel·ligència artificial. Des de no poder accedir a la informació necessària per demanar certificats, permisos, etc. fins a trobar-te amb un mur anomenat sistema: “res no podem fer: és el sistema”. Resultat: l’augment de la desigualtat i, per tant, de la injustícia. Necessitem una ciutadania digital i hem de començar per afirmar que cap decisió que ens afecti no es pot prendre sense la intervenció humana, en especial dels que en patiran les conseqüències. Aquesta és la clau que uneix ètica i democràcia en parlar d’intel·ligència artificial.


8. Finalment, si haguessis d’il·lustrar, amb tres paraules què significa per a tu incorporar l’ètica a la presa de decisions, quines serien?

Atès que algunes de les meves respostes han estat probablement massa extenses, conclouré de forma més breu, ja que em sobra amb dues paraules: generar confiança. Aquesta és l’aportació més important de l’ètica a la presa de decisions. És hora d’abandonar la idea de l’ètica només com a limitació i passiu per a l’empresa. És una capacitat que tenim tots els éssers humans que es pot convertir en un actiu per a l’empresa, en un factor d’innovació i avenç cap a una democràcia, com diria Adela Cortina, radical i autèntica. Una ètica empresarial ha de ser conscient de la seva aportació al sistema democràtic, ja que quan parlem de confiar en els algoritmes parlem de confiar tant en els experts com en les empreses on es dissenyen, es desenvolupen i s’apliquen aquestes tecnologies.

Simplificant en dues paraules: generar confiança!

beethik al 7è Congrés del Tercer Sector

beethik va presentar els resultats del projecte “Un pas més en el compromís ètic de la Taula d’Entitats del Tercer Sector Social de Catalunya. Anàlisi del nivell de gestió ètica i de la coherència percebuda entre els valors del Codi ètic de la Taula i la seva aplicació en el dia a dia” en el marc del 7è Congrés del Tercer Sector Social el dia 15 de juny de 2022.

La presentació es va emmarcar en la taula d’experiències sobre gestió ètica, en la que es van presentar les següents iniciatives:

Pots veure aquí el vídeo de la sessió: