Conexiones beethik: entrevista a Txetxu Ausín

Investigador Científico y Director del Instituto de Filosofía del CSIC (Grupo de Ética Aplicada GEA). Doctor en Filosofía por la Universidad del País Vasco (premio extraordinario), es profesor invitado en varias universidades y colaborador en el Instituto de Gobernanza Democrática Globernance. Sus áreas de trabajo son la ética pública, la bioética, los derechos humanos y la filosofía de las tecnologías disruptivas.

Miembro del OECD Expert Group on Research ethics and new forms of data for social and economic research. Editor y autor de varias obras sobre estos temas, ha sido fundador de la revista electrónica de éticas aplicadas DILEMATA. En la actualidad forma parte de los equipos de investigación de EmpoderDAT: Empoderamiento del paciente, espacio de datos de salud e inteligencia artificial como pilares del nuevo sistema sanitario [Fundación Séneca]; Detección y eliminación de sesgos en algoritmos de salud [Fundación BBVA]; y BAKARZAIN: Soledad no deseada y cuidados [BBK Kuna]. Presidente del Comité de Ética del CSIC y miembro del comité directivo del AIHUB-CSIC, colabora también en la Red ESPACyOS (Ética Salubrista para la Acción, Cuidados y Observación Social) y en el Comité de Expertos sobre Envejecimiento de la Fundación General CSIC.



1. ¿Qué te sugiere el concepto de ética de la responsabilidad radical?

La idea de responsabilidad, de hacerse cargo de las acciones y omisiones y de sus consecuencias, es un concepto nuclear de la ética en tanto que reflexión sobre la moral humana. Esto es, en la medida en que somos libres de elegir hacer o no hacer (así se titula un libro que coordiné con mi colega Rosana Triviño), optamos entre una gama de posibilidades y debemos hacer la buena elección. Responsabilidad, deber y bien son las raíces de la ética y hablar de “responsabilidad radical” alude a este criterio fundamental, último, de raíz, para la ética.


2. En los últimos años, una de las iniciativas más comunes en las organizaciones públicas es desarrollar los denominados “marcos de integridad”. ¿Qué están aportando? ¿Qué retos quedan aún pendientes?

Los llamados “marcos o sistemas de integridad” constituyen una herramienta fundamental para la transformación en clave ética de las organizaciones del sector público. En un momento de profunda desconfianza social hacia las instituciones, y de crisis de legitimidad del sistema democrático en consecuencia, los sistemas de integridad institucional son un instrumento valioso para restablecer esa confianza pública, favoreciendo la cohesión social y la legitimidad democrática. No olvidemos que la confianza es ese intangible que un mundo abrumadoramente complejo e incierto, nos permite absorber esa complejidad. La confianza es un hecho básico de la vida cotidiana; confiamos en que el conductor del autobús, el médico, el profesor, el administrativo… (servidores públicos), se comporten y ejecuten sus labores tal y como se espera. En realidad, la confianza mueve el mundo y la desconfianza, por contra, es letal para instituciones, organizaciones y la sociedad en general.

Me permito hacer esta reflexión sobre la confianza porque los sistemas de integridad institucional no son un fin en sí mismos, sino una herramienta crucial para construir y mantener la confianza pública.

Dicho esto, quedan muchos retos pendientes con respecto a los mismos. Precisan de un impulso político indispensable, han de construirse de modo participativo, de abajo arriba, como sistemas vivos y flexibles, con canales claros de consulta y denuncia y con órganos de monitorización y supervisión que los hagan efectivos. Esto es, se necesita una “infraestructura ética” para que cumplan con su cometido pedagógico, preventivo de las malas prácticas y ejemplarizante. El riesgo evidente, como dice Adela Cortina, es convertir la ética en cosmética, en una mera estrategia de marketing y publicidad que no transforma la cultura organizacional y que, a la postre, genera frustración y más desconfianza.


3. Dices que “la ética del cuidado” debe ser uno de los fundamentos de la ética pública – “La mayor calidad es la calidez”- ¿Hasta qué punto está integrado el cuidado en la cultura, es decir, en las maneras de hacer, de las instituciones públicas?

Desgraciadamente el cuidado como perspectiva no es lo que más abunda en la gestión pública. Y, sin embargo, no me cabe duda de que la ética del cuidado es el fundamento de las acciones y políticas públicas. Partiendo de una concepción antropológica basada en la vulnerabilidad humana, la ética del cuidado pone el acento en la respuesta a esa susceptibilidad variable y desigual a padecer un daño y cómo las instituciones del sector público se orientan al bien común mediante la protección y la capacitación de los ciudadanos. Se construye así una «democracia cuidadosa», en palabras de Joan Tronto, donde el servicio público perseguirá proteger a los débiles y vulnerables así como transformar las bases para que dejen de serlo, poniendo el cuidado en el centro de las políticas públicas. Una democracia sensible y cuidadosa, una gobernanza ejemplar, demanda por tanto una ética pública del cuidado.


4. En diferentes ocasiones has compartido tus reflexiones sobre el principio de responsabilidad, especialmente en el contexto del servicio público. En el libro titulado “Hacer o no hacer, la responsabilidad por acciones u omisiones”, profundizas en esta distinción y en sus consecuencias. ¿Afrontamos, como sociedad, la responsabilidad por acción y por omisión de la misma manera?

Precisamente, el libro que mencionáis es un análisis exhaustivo sobre la responsabilidad causal de la comisión por omisión. Esto es, muy resumidamente, que no hacer también es una forma de hacer algo que tiene consecuencias, sobre las que hemos de asumir también responsabilidades. Pensemos en unos padres que no alimentan a sus hijos o en un sistema público de salud que deja desatendida a parte de la población (mayores o inmigrantes indocumentados). Y no, no se afronta igual la responsabilidad por acción que por omisión. Individualmente, la psicología ha estudiado el llamado “sesgo de omisión” por el cual tendemos a juzgar moralmente más graves aquellos comportamientos dañinos cuando el daño es el resultado de una acción, frente a cuando es resultado de una omisión. Colectivamente, este sesgo de omisión contribuye a diluir la responsabilidad, máxime cuando no se percibe claramente el vínculo causal entre la omisión (de ayuda, de socorro, por ejemplo) y las malas consecuencias que se producen o se facilitan.


5. Te has referido a la confianza como un mantra sin la que no se puede mantener una sociedad compleja. Poniendo el foco en la ética pública, afirmas que su robustecimiento debe orientarse a fortalecer la confianza, reforzando convicciones, hábitos y cambios de cultura. ¿Qué deben trasformar realmente las organizaciones públicas para recuperar y potenciar la confianza de la ciudadanía? ¿Y qué debemos cambiar nosotros como personas ciudadanas?

Las organizaciones del sector público deben asumir un modelo de gobernanza más abierto, transparente y colaborativo y, como hemos dicho, desarrollar sistemas de integridad institucional que contribuyan precisamente a generar confianza pública. Una gobernanza de este tipo requiere asimismo una ciudadanía activa y comprometida donde las personas contribuyan proactivamente y de manera participativa en el diseño y desarrollo de las políticas públicas (co-gestión, co-responsabilidad), según un modelo de “administración relacional”, con ciudadanos “accionistas” en vez de meros “clientes” de los servicios públicos.


6. También estás investigando y trabajando desde la perspectiva de la ética aplicada a las tecnologías disruptivas en el sector público, especialmente relacionadas con los datos. ¿Qué iniciativas se deben poner en marcha para un adecuado gobierno del dato?

La inteligencia artificial y la ciencia de datos masivos ya están transformando nuestra sociedad y también el sector público. Las políticas públicas basadas en datos y algoritmos contribuirán a modelos decisionales menos especulativos, a reducir riesgos e incertidumbres, y a innovar a través de la cooperación (inteligencia colectiva y experimentación abierta). Estas oportunidades no están exentas de riesgos y por ello es necesaria pedagogía social, reflexión ética colectiva y deliberación pública para orientar estas tecnologías hacia el bien común y el servicio real a la ciudadanía. Por ello, el desarrollo de marcos éticos para los procesos de transformación digital de las administraciones es un imperativo que ya se está materializando en iniciativas como el Código ético para los datos y la inteligencia artificial de la Diputación Foral de Gipuzkoa o la reciente normativa europea Artificial Intelligence Act.


7. ¿Qué otros impactos se derivan de otras aplicacioness de la inteligencia artificial en las instituciones públicas? ¿Cuáles son los riesgos, los límites o las consecuencias de la aplicación de modelos matemáticos de decisión en el ámbito público?

La introducción de sistemas basados en IA en la gestión pública supone una transformación radical en cuanto a la gestión y diseño de las políticas públicas, con el uso de datos masivos que pueden contribuir notablemente a afinar intervenciones en ámbitos urbanísticos, de tráfico, ambientales, sociales, etc. Los riesgos estriban en un diseño inadecuado de estos sistemas que provoque discriminación, desigualdad (brecha), sesgos, impacto medioambiental… Para ello, es indispensable tomar en consideración principios éticos y buenas prácticas para no convertir estas herramientas en “armas de destrucción matemática”, en palabras de Cathy O’Neil.

Atender a la calidad de las fuentes de los datos, que el tratamiento algorítmico sea seguro, que se proteja la privacidad, que se evalúe la huella ambiental del sistema o que se considere el impacto social positivo y su contribución a la solidaridad y la inclusión, constituyen elementos éticos indispensables en el desarrollo e implementación de estos sistemas.

También es obvio descartar aplicaciones como los algoritmos de puntuación social o los sistemas manipulativos.

Y es muy importante valorar previamente la necesidad y conveniencia de desarrollar aplicaciones de IA en relación a determinadas actividades o procesos, estableciéndose un análisis coste-beneficio y su relación con derechos fundamentales de la persona.


8. Por último, si tuvieras que ilustrar, con tres palabras qué significa para ti incorporar la ética en la toma de decisiones, ¿cuáles serían?

Participación, deliberación, responsabilidad.

Participación porque la ética es cosa de todos y todas.

“La ética concierne a todo el mundo. Los problemas y las teorías científicas pueden despertar nuestra curiosidad o incluso apoderarse de todos nosotros alguna que otra vez, pero solamente para unos pocos tienen importancia práctica e inmediata. En cambio, todo el mundo se enfrenta con problemas morales sobre los que, después de mayor o menor reflexión, hay que decidir.” (Toulmin, El puesto de la razón en la ética, 1950).

Deliberación porque la ética es un ejercicio reflexivo que atiende a razones y argumentos. La deliberación se refiere a una discusión que es informada, que se basa en valores y que es transformativa.

Responsabilidad porque, como hemos dicho, supone hacerse cargo de lo que se considera un deber en tanto que bueno.

¡Conexión de conexiones beethik! 5 años y 1 invitación

Ya ha llegado de nuevo el día del libro! Este domingo celebramos Sant Jordi.

Cómo pasa el tiempo… y es que hoy celebramos el 5º aniversario de #conexiones_beethik

Pero no lo hacemos solos, hemos querido ponernos en contacto con quien nos ha acompañado en los últimos años en esta celebración tan especial, nuestra dragona.

Justo hace un año recibieron la visita de un dragón robot (lo puedes recordar aquí), y nos explica que han tenido tiempo para conversar y reflexionar juntos sobre esta interacción tan presente en nuestro día a día: la relación con las máquinas.

Sigue leyendo

Conexiones beethik: entrevista a Idoia Salazar

Idoia Salazar

Presidenta y fundadora de OdiseIA, observatorio del impacto social y ético de la inteligencia artificial. Es periodista, investigadora y profesora en la Universidad CEU San Pablo y se declara decidida a contribuir al desarrollo ético y responsable de la Inteligencia Artificial. Es speaker y autora de numerosos artículos y libros sobre inteligencia artificial. Además, es expert in the EU Parliament AI Observatory (EPAIO) y Country advisor (Spain) in the Advisory Board of International Group of Artificial Intelligence, entre otros.


1. Hace años que se habla de los cambios que está provocando y provocará la integración de la Inteligencia Artificial (IA) en nuestras vidas. Pero últimamente el debate se ha acelerado y parece que van apareciendo miedos y precauciones. ¿Qué es lo que nos preocupa tanto?

Nos preocupa enfrentarnos a casos que antes solo veíamos en películas y literatura de ciencia ficción. La cuestión es que ahora está en los telediarios y eso incita al desasosiego y a la intranquilidad. Además, tenemos el hecho de que son muchos los medios de comunicación generalistas que exaltan la parte más “llamativa” de la IA. Es decir, los sistemas de IA integrados en robots humanoides -como es el caso de Sophia- que parece que interactúan de manera autónoma con los humanos. Este hecho, aplicado a una sociedad poco preparada que no entiende bien qué es un sistema de IA y en qué momento de desarrollo nos encontramos, se traduce en un temor fundamentado en el desconocimiento de la realidad entorno a esta tecnología.


2. A menudo afirmas que tenemos que poner a la persona en el centro de la IA. ¿Qué significa esta afirmación? Y, sobre todo… ¿cómo se hace?

Los sistemas de inteligencia artificial tienen una peculiaridad que no tienen otras tecnologías. Pueden “aprender” y llegar a conclusiones o “decisiones” de manera autónoma. Este hecho puede significar que nosotros, como humanos, deleguemos en exceso en las máquinas en esta “toma de decisiones”. Imaginemos que un departamento de gestión de personas usa un sistema de IA para seleccionar quién va a desempeñar un puesto de trabajo específico dentro de una empresa. Este trabajo es posible automatizarlo con estas herramientas de IA, ya que el sistema tiene la capacidad de analizar al detalle todos los currículums recibidos y contrastarlo con las necesidades del puesto. Pero la cuestión no es la capacidad, sino si realmente debemos delegar estas decisiones concretas que pueden incidir en el futuro de una persona. En conclusión: las personas del departamento de RRHH se pueden ayudar de los sistemas de IA, pero no sustituir, sin supervisión, sus decisiones humanas por las de la IA. Es una cuestión de responsabilidad. La IA no puede “rendir cuentas”, (al menos por ahora), el humano sí. Por lo tanto, la responsabilidad última de la toma de decisiones en este tipo de asuntos tiene que seguir siendo de los humanos.


3. El libro “El algoritmo y yo”, que has escrito junto a Richard Benjamins representa una guía de la convivencia entre seres humanos y artificiales ¿Por qué “convivir” y no, por ejemplo, “interactuar”? ¿O utilizar? ¿Se puede hablar de convivencia entre humanos y máquinas?

Richard Benjamins y yo decidimos utilizar el término «convivir» en lugar de palabras como «interactuar» o «utilizar» para enfatizar la relación más profunda y bidireccional que existe entre los seres humanos y la inteligencia artificial en la actualidad.

La «convivencia» sugiere una relación más cercana y armónica en la que ambas partes, humanos y máquinas, se benefician y se influyen mutuamente. Además, implica una responsabilidad compartida en la forma en que estas tecnologías se desarrollan, se aplican y se integran en la sociedad. En el contexto explicado en el libro, la convivencia se refiere a la necesidad de establecer pautas éticas y sociales para garantizar que la inteligencia artificial se utilice de manera justa y beneficiosa para todos.

Por otro lado, es cierto que puede parecer extraño hablar de “convivencia” entre humanos y máquinas. Creemos que esta perspectiva refleja mejor la realidad actual en la que la inteligencia artificial está transformando rápidamente nuestras vidas y cómo nos relacionamos con la tecnología. Adoptar una actitud de “convivencia” nos permitirá abordar los desafíos y oportunidades que surgen de esta relación que, sin duda alguna, se encuentra en constante evolución.


4. Actualmente el control del diseño y la gestión de la inteligencia artificial está bajo el poder de intereses privados. ¿Cómo se va a poder controlar del poder tecnológico y proteger a la ciudadanía? Las iniciativas legislativas que se están desarrollando, ¿van a llegar a tiempo?

En mi opinión, para controlar el poder tecnológico y proteger a la ciudadanía, es fundamental establecer un marco regulatorio sólido y garantizar la colaboración entre gobiernos, empresas privadas, investigadores y la sociedad civil. Los gobiernos tienen un papel fundamental en la implementación de leyes y regulaciones que protejan la privacidad de los datos, promuevan la transparencia y eviten la discriminación y el sesgo en la IA.

Es importante también el desarrollo de estándares éticos en la investigación y aplicación de la IA para garantizar un uso responsable de estas tecnologías. Por ejemplo, nosotros, desde OdiseIA, hemos desarrollado el proyecto GuIA, que son unas guías prácticas para el uso responsable de la IA adaptadas sobre casos de uso en sectores concretos: tecnológicas, salud, seguros…Todo esto, basándonos en análisis de más de 100 códigos éticos en IA internacionales de organizaciones y empresas. Y, en la actualidad, estamos trabajando en un sello de confianza en la inteligencia artificial, basándonos en nuestra amplia experiencia en el área. Creo en la importancia de implementar auditorías y supervisión independientes de los sistemas de IA para garantizar su transparencia y responsabilidad.

También me gustaría destacar la importancia de la educación y la concientización sobre la IA para empoderar a los ciudadanos y permitirles comprender y participar en discusiones sobre cómo se desarrolla y aplica la IA.

En cuanto a las iniciativas legislativas en desarrollo, es difícil determinar si llegarán a tiempo para abordar todos los desafíos que plantea la IA. Sin duda, se está haciendo un gran esfuerzo a nivel europeo con la Regulación de la Comisión Europea en IA (AI ACT). Sin embargo, es fundamental que los gobiernos y las organizaciones internacionales sigan trabajando de manera proactiva para anticipar y enfrentar estos desafíos a medida que surgen.


5. Una de las mayores preocupaciones sociales con relación al uso de la IA es su posible impacto en un aumento de la discriminación y la desigualdad por los sesgos derivados del diseño de determinados algoritmos. ¿Qué recomendaciones nos darías a las personas de a pie para protegernos y elevar la consciencia de los riesgos que tenemos ante la presencia creciente de la IA en nuestras vidas?

Sin duda, la preocupación sobre la discriminación y la desigualdad relacionadas con el uso de IA es legítima. Para las personas de a pie, una de las mejores formas de protegerse y aumentar la conciencia sobre los riesgos asociados con la IA en nuestras vidas es mantenerse informado sobre los avances y debates en el campo de la IA y la ética.  Es importante que cualquier ciudadano, independientemente de su edad o condición, conozca cómo funciona la IA y cuáles son sus posibles consecuencias. Esto permitirá tomar decisiones más informadas y responsables al interactuar con estas tecnologías. Además, permitirá una ampliación del criterio al evaluar la información y las noticias relacionadas con la IA. No todas las aplicaciones de IA son iguales, y es importante comprender la diferencia entre aquellas que están diseñadas de manera responsable y aquellas que pueden tener efectos perjudiciales. Una de las principales recomendaciones que daría sería intentar ser más consciente de nuestra huella digital.  Es importante aprender a proteger la privacidad de nuestros datos personales, ya que la IA se basa en gran medida en el análisis y la utilización de datos. Debemos intentar entender cómo las empresas y las plataformas en línea utilizan nuestra información y configuran nuestras preferencias de privacidad de manera adecuada puede ayudar a mitigar los riesgos relacionados con la IA.

También aconsejaría asistir a diálogos o debates sobre la IA y su impacto, con expertos que puedan responder a cuestiones que se nos plantearán en muchas ocasiones. Nosotros en OdiseIA fomentamos estos encuentros.


6. Ya es una realidad el hecho de que la IA está tomando decisiones por nosotros (las rutas propuestas por el GPS, las recomendaciones de las plataformas de entretenimiento…incluso le preguntamos al ChatGPT qué podemos hacer ante un problema ético). Con el tiempo, podemos llegar a delegar en la IA gran parte de nuestras decisiones, pero si esto sucede, ¿qué nos queda como seres humanos?

Es cierto que la IA está desempeñando un papel cada vez más importante en nuestras vidas y decisiones cotidianas. También lo es que muy probablemente lleguemos a delegar gran parte de nuestras decisiones en la IA. Para saber afrontar este hecho, que muy probablemente ocurrirá, es crucial recordar que, como seres humanos, aún tenemos la responsabilidad y el control último sobre nuestras acciones y elecciones. Debemos recordar que la IA puede ser una herramienta valiosa para ayudarnos a tomar decisiones informadas y optimizar nuestras acciones, pero no debe reemplazar por completo nuestra capacidad de pensar, razonar y reflexionar.

Creo que la clave para mantener nuestra humanidad en la era de la IA radica en fomentar la educación, la conciencia y el compromiso con la ética y los valores humanos. Al adoptar un enfoque crítico y reflexivo sobre cómo utilizamos y nos relacionamos con la IA, podemos asegurarnos de que sigamos siendo seres humanos con espíritu crítico, empatía y responsabilidad, incluso cuando la IA desempeña un papel importante en nuestras decisiones y acciones.


7. Recientemente publicamos una ¿entrevista? con el ChatGPT ¿Qué te pareció? ¿Qué impacto pueden tener en nuestras vidas estos modelos de lenguaje de aprendizaje automático?

La entrevista es muy buena. Deja entrever la tremenda potencia de esta tecnología y el impacto que puede tener en nuestra rutina diaria. Sin duda, cambiarán muchas cosas a partir de estos desarrollos de la IA Generativa.

La cuestión es si nuestra sociedad está preparada para asumir estos cambios. Para dejar que la IA activa forme parte de sus vidas, como una herramienta más. ¿Cómo será este cambio? Posiblemente mucho más rápido de lo que pensamos debido a la utilidad clara de estos modelos del lenguaje. Las empresas, al usarlo, pueden aumentar la productividad automatizando tareas relacionadas con la redacción, como la creación de informes, resúmenes, correos electrónicos y otros documentos. También pueden mejorar la toma de decisiones al analizar grandes cantidades de datos y extraer información relevante. Lo van a usar, si no lo hacen ya. Y pronto.

Imaginemos su utilidad en el campo de la educación. Gracias a esta tecnología se pueden ofrecer tutoriales personalizados y herramientas de aprendizaje adaptativo para ayudar a los estudiantes a aprender de manera más eficiente y eficaz. Además, pueden proporcionar retroalimentación inmediata y asesoramiento. La labor de los profesionales humanos sigue siendo muy útil, aunque estas herramientas, sin duda, proporcionarán un apoyo importante. Además, puede ayudar a las personas con discapacidades, como las dificultades auditivas o del habla, a comunicarse a través de interfaces de lenguaje natural y sistemas de reconocimiento de voz. Un sinfín de utilidades y muchas que aún no hemos descubierto.


8. En el ámbito de la IA nos centramos, habitualmente, en los impactos negativos, pero también se derivan, posiblemente, oportunidades. ¿Cuáles crees que son las principales contribuciones que puede aportar la Inteligencia Artificial para el desarrollo de modelos organizativos más éticos y responsables?

Hoy día no sería ético no usar la inteligencia artificial. Nos abre un mundo de nuevas oportunidades. Una de las principales es la identificación y corrección de sesgos. La IA puede ayudar a detectar y abordar sesgos en datos y algoritmos, lo que permite a las organizaciones tomar decisiones más justas y éticas. Por ejemplo, esto es especialmente relevante en áreas como la contratación, el crédito y la distribución de recursos. También puede mejorar la eficiencia y la sostenibilidad de las operaciones organizativas. Al optimizar procesos y reducir el desperdicio de recursos, las organizaciones pueden adoptar prácticas más respetuosas con el medio ambiente y socialmente responsables.

Por poner otro ejemplo, destacaría el papel de la IA para facilitar la toma de decisiones informada y basada en datos en las organizaciones. Es decir, al proporcionar información valiosa y análisis en tiempo real, puede ayudar a los líderes organizacionales a tomar decisiones estratégicas más éticas y responsables que consideren el bienestar a largo plazo de sus empleados, clientes y comunidades. Además, puede desempeñar un papel importante en la promoción de la inclusión y la diversidad dentro de las organizaciones ayudando a identificar y abordar barreras y desigualdades en el acceso a oportunidades.


9. Por último, si tuvieras que ilustrar, con tres palabras qué significa para ti incorporar la ética en la toma de decisiones de la IA, ¿cuáles serían?

Responsabilidad, equidad y transparencia.