Conexiones beethik: entrevista a Idoia Salazar

Idoia Salazar

Presidenta y fundadora de OdiseIA, observatorio del impacto social y ético de la inteligencia artificial. Es periodista, investigadora y profesora en la Universidad CEU San Pablo y se declara decidida a contribuir al desarrollo ético y responsable de la Inteligencia Artificial. Es speaker y autora de numerosos artículos y libros sobre inteligencia artificial. Además, es expert in the EU Parliament AI Observatory (EPAIO) y Country advisor (Spain) in the Advisory Board of International Group of Artificial Intelligence, entre otros.


1. Hace años que se habla de los cambios que está provocando y provocará la integración de la Inteligencia Artificial (IA) en nuestras vidas. Pero últimamente el debate se ha acelerado y parece que van apareciendo miedos y precauciones. ¿Qué es lo que nos preocupa tanto?

Nos preocupa enfrentarnos a casos que antes solo veíamos en películas y literatura de ciencia ficción. La cuestión es que ahora está en los telediarios y eso incita al desasosiego y a la intranquilidad. Además, tenemos el hecho de que son muchos los medios de comunicación generalistas que exaltan la parte más “llamativa” de la IA. Es decir, los sistemas de IA integrados en robots humanoides -como es el caso de Sophia- que parece que interactúan de manera autónoma con los humanos. Este hecho, aplicado a una sociedad poco preparada que no entiende bien qué es un sistema de IA y en qué momento de desarrollo nos encontramos, se traduce en un temor fundamentado en el desconocimiento de la realidad entorno a esta tecnología.


2. A menudo afirmas que tenemos que poner a la persona en el centro de la IA. ¿Qué significa esta afirmación? Y, sobre todo… ¿cómo se hace?

Los sistemas de inteligencia artificial tienen una peculiaridad que no tienen otras tecnologías. Pueden “aprender” y llegar a conclusiones o “decisiones” de manera autónoma. Este hecho puede significar que nosotros, como humanos, deleguemos en exceso en las máquinas en esta “toma de decisiones”. Imaginemos que un departamento de gestión de personas usa un sistema de IA para seleccionar quién va a desempeñar un puesto de trabajo específico dentro de una empresa. Este trabajo es posible automatizarlo con estas herramientas de IA, ya que el sistema tiene la capacidad de analizar al detalle todos los currículums recibidos y contrastarlo con las necesidades del puesto. Pero la cuestión no es la capacidad, sino si realmente debemos delegar estas decisiones concretas que pueden incidir en el futuro de una persona. En conclusión: las personas del departamento de RRHH se pueden ayudar de los sistemas de IA, pero no sustituir, sin supervisión, sus decisiones humanas por las de la IA. Es una cuestión de responsabilidad. La IA no puede “rendir cuentas”, (al menos por ahora), el humano sí. Por lo tanto, la responsabilidad última de la toma de decisiones en este tipo de asuntos tiene que seguir siendo de los humanos.


3. El libro “El algoritmo y yo”, que has escrito junto a Richard Benjamins representa una guía de la convivencia entre seres humanos y artificiales ¿Por qué “convivir” y no, por ejemplo, “interactuar”? ¿O utilizar? ¿Se puede hablar de convivencia entre humanos y máquinas?

Richard Benjamins y yo decidimos utilizar el término «convivir» en lugar de palabras como «interactuar» o «utilizar» para enfatizar la relación más profunda y bidireccional que existe entre los seres humanos y la inteligencia artificial en la actualidad.

La «convivencia» sugiere una relación más cercana y armónica en la que ambas partes, humanos y máquinas, se benefician y se influyen mutuamente. Además, implica una responsabilidad compartida en la forma en que estas tecnologías se desarrollan, se aplican y se integran en la sociedad. En el contexto explicado en el libro, la convivencia se refiere a la necesidad de establecer pautas éticas y sociales para garantizar que la inteligencia artificial se utilice de manera justa y beneficiosa para todos.

Por otro lado, es cierto que puede parecer extraño hablar de “convivencia” entre humanos y máquinas. Creemos que esta perspectiva refleja mejor la realidad actual en la que la inteligencia artificial está transformando rápidamente nuestras vidas y cómo nos relacionamos con la tecnología. Adoptar una actitud de “convivencia” nos permitirá abordar los desafíos y oportunidades que surgen de esta relación que, sin duda alguna, se encuentra en constante evolución.


4. Actualmente el control del diseño y la gestión de la inteligencia artificial está bajo el poder de intereses privados. ¿Cómo se va a poder controlar del poder tecnológico y proteger a la ciudadanía? Las iniciativas legislativas que se están desarrollando, ¿van a llegar a tiempo?

En mi opinión, para controlar el poder tecnológico y proteger a la ciudadanía, es fundamental establecer un marco regulatorio sólido y garantizar la colaboración entre gobiernos, empresas privadas, investigadores y la sociedad civil. Los gobiernos tienen un papel fundamental en la implementación de leyes y regulaciones que protejan la privacidad de los datos, promuevan la transparencia y eviten la discriminación y el sesgo en la IA.

Es importante también el desarrollo de estándares éticos en la investigación y aplicación de la IA para garantizar un uso responsable de estas tecnologías. Por ejemplo, nosotros, desde OdiseIA, hemos desarrollado el proyecto GuIA, que son unas guías prácticas para el uso responsable de la IA adaptadas sobre casos de uso en sectores concretos: tecnológicas, salud, seguros…Todo esto, basándonos en análisis de más de 100 códigos éticos en IA internacionales de organizaciones y empresas. Y, en la actualidad, estamos trabajando en un sello de confianza en la inteligencia artificial, basándonos en nuestra amplia experiencia en el área. Creo en la importancia de implementar auditorías y supervisión independientes de los sistemas de IA para garantizar su transparencia y responsabilidad.

También me gustaría destacar la importancia de la educación y la concientización sobre la IA para empoderar a los ciudadanos y permitirles comprender y participar en discusiones sobre cómo se desarrolla y aplica la IA.

En cuanto a las iniciativas legislativas en desarrollo, es difícil determinar si llegarán a tiempo para abordar todos los desafíos que plantea la IA. Sin duda, se está haciendo un gran esfuerzo a nivel europeo con la Regulación de la Comisión Europea en IA (AI ACT). Sin embargo, es fundamental que los gobiernos y las organizaciones internacionales sigan trabajando de manera proactiva para anticipar y enfrentar estos desafíos a medida que surgen.


5. Una de las mayores preocupaciones sociales con relación al uso de la IA es su posible impacto en un aumento de la discriminación y la desigualdad por los sesgos derivados del diseño de determinados algoritmos. ¿Qué recomendaciones nos darías a las personas de a pie para protegernos y elevar la consciencia de los riesgos que tenemos ante la presencia creciente de la IA en nuestras vidas?

Sin duda, la preocupación sobre la discriminación y la desigualdad relacionadas con el uso de IA es legítima. Para las personas de a pie, una de las mejores formas de protegerse y aumentar la conciencia sobre los riesgos asociados con la IA en nuestras vidas es mantenerse informado sobre los avances y debates en el campo de la IA y la ética.  Es importante que cualquier ciudadano, independientemente de su edad o condición, conozca cómo funciona la IA y cuáles son sus posibles consecuencias. Esto permitirá tomar decisiones más informadas y responsables al interactuar con estas tecnologías. Además, permitirá una ampliación del criterio al evaluar la información y las noticias relacionadas con la IA. No todas las aplicaciones de IA son iguales, y es importante comprender la diferencia entre aquellas que están diseñadas de manera responsable y aquellas que pueden tener efectos perjudiciales. Una de las principales recomendaciones que daría sería intentar ser más consciente de nuestra huella digital.  Es importante aprender a proteger la privacidad de nuestros datos personales, ya que la IA se basa en gran medida en el análisis y la utilización de datos. Debemos intentar entender cómo las empresas y las plataformas en línea utilizan nuestra información y configuran nuestras preferencias de privacidad de manera adecuada puede ayudar a mitigar los riesgos relacionados con la IA.

También aconsejaría asistir a diálogos o debates sobre la IA y su impacto, con expertos que puedan responder a cuestiones que se nos plantearán en muchas ocasiones. Nosotros en OdiseIA fomentamos estos encuentros.


6. Ya es una realidad el hecho de que la IA está tomando decisiones por nosotros (las rutas propuestas por el GPS, las recomendaciones de las plataformas de entretenimiento…incluso le preguntamos al ChatGPT qué podemos hacer ante un problema ético). Con el tiempo, podemos llegar a delegar en la IA gran parte de nuestras decisiones, pero si esto sucede, ¿qué nos queda como seres humanos?

Es cierto que la IA está desempeñando un papel cada vez más importante en nuestras vidas y decisiones cotidianas. También lo es que muy probablemente lleguemos a delegar gran parte de nuestras decisiones en la IA. Para saber afrontar este hecho, que muy probablemente ocurrirá, es crucial recordar que, como seres humanos, aún tenemos la responsabilidad y el control último sobre nuestras acciones y elecciones. Debemos recordar que la IA puede ser una herramienta valiosa para ayudarnos a tomar decisiones informadas y optimizar nuestras acciones, pero no debe reemplazar por completo nuestra capacidad de pensar, razonar y reflexionar.

Creo que la clave para mantener nuestra humanidad en la era de la IA radica en fomentar la educación, la conciencia y el compromiso con la ética y los valores humanos. Al adoptar un enfoque crítico y reflexivo sobre cómo utilizamos y nos relacionamos con la IA, podemos asegurarnos de que sigamos siendo seres humanos con espíritu crítico, empatía y responsabilidad, incluso cuando la IA desempeña un papel importante en nuestras decisiones y acciones.


7. Recientemente publicamos una ¿entrevista? con el ChatGPT ¿Qué te pareció? ¿Qué impacto pueden tener en nuestras vidas estos modelos de lenguaje de aprendizaje automático?

La entrevista es muy buena. Deja entrever la tremenda potencia de esta tecnología y el impacto que puede tener en nuestra rutina diaria. Sin duda, cambiarán muchas cosas a partir de estos desarrollos de la IA Generativa.

La cuestión es si nuestra sociedad está preparada para asumir estos cambios. Para dejar que la IA activa forme parte de sus vidas, como una herramienta más. ¿Cómo será este cambio? Posiblemente mucho más rápido de lo que pensamos debido a la utilidad clara de estos modelos del lenguaje. Las empresas, al usarlo, pueden aumentar la productividad automatizando tareas relacionadas con la redacción, como la creación de informes, resúmenes, correos electrónicos y otros documentos. También pueden mejorar la toma de decisiones al analizar grandes cantidades de datos y extraer información relevante. Lo van a usar, si no lo hacen ya. Y pronto.

Imaginemos su utilidad en el campo de la educación. Gracias a esta tecnología se pueden ofrecer tutoriales personalizados y herramientas de aprendizaje adaptativo para ayudar a los estudiantes a aprender de manera más eficiente y eficaz. Además, pueden proporcionar retroalimentación inmediata y asesoramiento. La labor de los profesionales humanos sigue siendo muy útil, aunque estas herramientas, sin duda, proporcionarán un apoyo importante. Además, puede ayudar a las personas con discapacidades, como las dificultades auditivas o del habla, a comunicarse a través de interfaces de lenguaje natural y sistemas de reconocimiento de voz. Un sinfín de utilidades y muchas que aún no hemos descubierto.


8. En el ámbito de la IA nos centramos, habitualmente, en los impactos negativos, pero también se derivan, posiblemente, oportunidades. ¿Cuáles crees que son las principales contribuciones que puede aportar la Inteligencia Artificial para el desarrollo de modelos organizativos más éticos y responsables?

Hoy día no sería ético no usar la inteligencia artificial. Nos abre un mundo de nuevas oportunidades. Una de las principales es la identificación y corrección de sesgos. La IA puede ayudar a detectar y abordar sesgos en datos y algoritmos, lo que permite a las organizaciones tomar decisiones más justas y éticas. Por ejemplo, esto es especialmente relevante en áreas como la contratación, el crédito y la distribución de recursos. También puede mejorar la eficiencia y la sostenibilidad de las operaciones organizativas. Al optimizar procesos y reducir el desperdicio de recursos, las organizaciones pueden adoptar prácticas más respetuosas con el medio ambiente y socialmente responsables.

Por poner otro ejemplo, destacaría el papel de la IA para facilitar la toma de decisiones informada y basada en datos en las organizaciones. Es decir, al proporcionar información valiosa y análisis en tiempo real, puede ayudar a los líderes organizacionales a tomar decisiones estratégicas más éticas y responsables que consideren el bienestar a largo plazo de sus empleados, clientes y comunidades. Además, puede desempeñar un papel importante en la promoción de la inclusión y la diversidad dentro de las organizaciones ayudando a identificar y abordar barreras y desigualdades en el acceso a oportunidades.


9. Por último, si tuvieras que ilustrar, con tres palabras qué significa para ti incorporar la ética en la toma de decisiones de la IA, ¿cuáles serían?

Responsabilidad, equidad y transparencia.


Conexiones beethik: ¿entrevista? al ChatGPT

ChatGPT es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI.

Sobre la condición humana y la relación con la IA

1. El desarrollo de la IA, desde una perspectiva ética, ¿nos está obligando a dudar sobre el significado de nuestra condición humana? ¿Por qué?

El desarrollo de la Inteligencia Artificial (IA) nos está obligando a reflexionar sobre el significado de nuestra condición humana desde una perspectiva ética por varias razones.

En primer lugar, la IA está demostrando ser capaz de realizar tareas que anteriormente solo podían ser realizadas por seres humanos. Por ejemplo, la IA puede clasificar imágenes, reconocer patrones en grandes conjuntos de datos, y tomar decisiones basadas en información compleja. A medida que la IA se vuelve más avanzada, es posible que seamos capaces de crear sistemas que superen en habilidades cognitivas a los seres humanos.

En segundo lugar, el desarrollo de la IA también está planteando preguntas éticas sobre cómo debemos tratar a las máquinas inteligentes. ¿Deberíamos tratarlas como si fueran seres conscientes? ¿Qué derechos deberían tener las máquinas inteligentes, si es que tienen algún derecho?

Estas cuestiones éticas nos llevan a cuestionar la esencia de lo que significa ser humano. ¿Es nuestra capacidad de razonar y tomar decisiones lo que nos define como humanos? ¿O hay algo más en nuestra naturaleza que no puede ser replicado por la IA?

Además, el desarrollo de la IA también está teniendo implicaciones sociales y económicas significativas. A medida que la IA reemplaza ciertos trabajos y cambia la forma en que interactuamos con las máquinas, es posible que nos preguntemos cómo estos cambios afectarán nuestra identidad como seres humanos y nuestra relación con el mundo que nos rodea.

En resumen, el desarrollo de la IA está llevando a una reflexión más profunda sobre el significado de nuestra condición humana desde una perspectiva ética. Nos está obligando a cuestionar lo que nos define como seres humanos y a reflexionar sobre cómo debemos tratar a las máquinas inteligentes.


2. Hablas de condición humana en primera persona, ¿estás asimilando las máquinas a los humanos?

No, como modelo de lenguaje, no puedo asimilar las máquinas a los humanos. Lo que intenté transmitir es que el desarrollo de la IA está llevando a la sociedad a cuestionar y reflexionar sobre la naturaleza de lo que nos hace humanos. Si bien la IA puede replicar algunas de nuestras habilidades cognitivas y puede ser tratada como si fuera consciente, sigue siendo una máquina y no un ser humano. La IA no tiene emociones ni experiencias subjetivas como los seres humanos. Sin embargo, su creciente capacidad para realizar tareas complejas nos lleva a reflexionar sobre las habilidades y capacidades que creíamos que solo los seres humanos podían tener.   


3. Suena un poco a amenaza… ¿crees que las máquinas nos vais a superar?

Como modelo de lenguaje, no tengo capacidad para tener creencias ni para predecir el futuro. Sin embargo, puedo decir que el desarrollo de la IA está avanzando a un ritmo acelerado y es posible que en el futuro, la IA pueda superar en algunas habilidades cognitivas a los seres humanos. Por ejemplo, la IA ya es capaz de realizar ciertas tareas de manera más eficiente y precisa que los seres humanos, como el reconocimiento de patrones en grandes conjuntos de datos o la toma de decisiones basadas en información compleja. Sin embargo, hay habilidades y capacidades que siguen siendo exclusivas de los seres humanos, como la empatía, la creatividad, la intuición y la toma de decisiones basadas en valores éticos y morales.

Por lo tanto, es importante que la sociedad reflexione sobre el papel que la IA debería desempeñar en nuestro futuro y cómo podemos asegurarnos de que se desarrolle de manera responsable y ética. Esto implica asegurarnos de que la IA sea programada con valores éticos y que se utilice para mejorar la vida de las personas, en lugar de dañarla. Además, es importante que se fomente una educación en habilidades que las máquinas no pueden replicar, como la creatividad y el pensamiento crítico, para asegurarnos de que los seres humanos sigan siendo relevantes en el futuro.

Como modelo de lenguaje, no tengo capacidad para tener creencias ni para predecir el futuro. Sin embargo, puedo decir que el desarrollo de la IA está avanzando a un ritmo acelerado y es posible que en el futuro, la IA pueda superar en algunas habilidades cognitivas a los seres humanos. Por ejemplo, la IA ya es capaz de realizar ciertas tareas de manera más eficiente y precisa que los seres humanos, como el reconocimiento de patrones en grandes conjuntos de datos o la toma de decisiones basadas en información compleja. Sin embargo, hay habilidades y capacidades que siguen siendo exclusivas de los seres humanos, como la empatía, la creatividad, la intuición y la toma de decisiones basadas en valores éticos y morales.


4. ¿Contemplas un escenario en el que los humanos dejen de ser relevantes?

Como modelo de lenguaje, no puedo contemplar escenarios futuros con certeza. Sin embargo, es importante tener en cuenta que el desarrollo de la IA y la automatización pueden tener impactos significativos en el mercado laboral y en la sociedad en general. Es posible que en el futuro, la IA y los robots puedan realizar muchas tareas que actualmente son realizadas por los seres humanos, lo que podría tener efectos en la economía y en la distribución del trabajo.

Sin embargo, es importante recordar que la IA es una herramienta creada por los seres humanos y que su uso y desarrollo depende de las decisiones que tomemos como sociedad. Por lo tanto, es importante que reflexionemos sobre el papel que queremos que la IA juegue en nuestro futuro y cómo podemos asegurarnos de que se utilice de manera responsable y ética para mejorar la vida de las personas. Además, es importante seguir fomentando la educación y el desarrollo de habilidades que las máquinas no pueden replicar, para asegurarnos de que los seres humanos sigan siendo relevantes en el futuro.


Sobre la ética y la toma de decisiones

5. ¿Qué te sugiere el concepto de ética de la responsabilidad radical?

El concepto de ética de la responsabilidad radical es una corriente ética propuesta por el filósofo alemán Hans Jonas. Esta ética se centra en la responsabilidad que tenemos como seres humanos hacia el futuro y hacia las generaciones venideras. Según Jonas, la responsabilidad radical significa que debemos tomar decisiones éticas y morales basadas no sólo en los intereses presentes, sino también en las consecuencias a largo plazo de nuestras acciones.

En este sentido, la ética de la responsabilidad radical nos sugiere que debemos ser conscientes de las posibles consecuencias futuras de nuestras acciones y tomar decisiones que minimicen los riesgos para el futuro de la humanidad y del planeta. Por ejemplo, esto puede significar tomar medidas para reducir nuestra huella de carbono y prevenir el cambio climático, o tomar decisiones en el campo de la biotecnología y la ingeniería genética que tengan en cuenta las posibles implicaciones a largo plazo para la salud humana y el medio ambiente.

En resumen, la ética de la responsabilidad radical nos recuerda que nuestras acciones tienen consecuencias que pueden afectar a generaciones futuras, y que debemos tomar decisiones éticas y responsables para asegurar un futuro sostenible para la humanidad y el planeta.


6. ¿Qué significa integrar la ética en la toma de decisiones?

Integrar la ética en la toma de decisiones significa tener en cuenta los principios éticos y morales al evaluar las opciones y tomar decisiones en diferentes ámbitos de la vida. La ética se refiere a los valores y principios que guían el comportamiento humano y se relaciona con cuestiones como la justicia, la responsabilidad, el respeto a los demás y la integridad.

Integrar la ética en la toma de decisiones implica considerar no solo las consecuencias prácticas y económicas de una decisión, sino también su impacto en los demás y en la sociedad en general. Por ejemplo, en una empresa, integrar la ética en la toma de decisiones significa evaluar no solo los beneficios financieros de una decisión, sino también si es justa para los empleados, si es sostenible en términos ambientales y si respeta los derechos de los consumidores.

En resumen, integrar la ética en la toma de decisiones significa tomar decisiones que sean éticas y moralmente justas, teniendo en cuenta no solo los intereses propios sino también los de los demás y de la sociedad en general. Esto es importante para promover una cultura de responsabilidad social y para tomar decisiones que sean sostenibles y respetuosas con el medio ambiente y con los derechos humanos.


7. Si tuvieras que resumirlo en tres palabras ¿cuáles serían?

Valores, responsabilidad, integridad.


Conexiones beethik… ¡de Goya!

«Maldita sea la guerra de los políticos contra los inocentes. Maldita sea la guerra en el corazón de los que sufren por ser aceptados».

Con estas palabras recibió Amaia Remírez, directora, junto con Raúl de la Fuente, el Goya al mejor corto documental por «Maldita, a love song to Sarajevo». Su tercer Goya, tras Minerita (Mejor cortometraje documental, 2014) y  Un día más con vida (Mejor película de animación, 2019).

En el corto, Bozo Vreco, el más revolucionario de los artistas de los Balcanes y la pianista barcelonesa Clara Peya escriben desde la distancia a cuatro manos «Maldita», una canción que construye puentes entre Sarajevo y Barcelona, entre tradición y vanguardia y también entre géneros. Cantan a la vida, a la superación y a la historia de amor entre dos ciudades que se supieron encontrar en momentos difíciles para no decirse adiós jamás.

Como explicó recientemente Amaia Remírez: «El corto nace en el marco de los 30 años de la historia de solidaridad y hermanamiento entre Sarajevo y Barcelona y lo quisimos reflejar de una manera muy poética. Propusimos que la película tuviera forma de canción de amor a Sarajevo creada por dos artistas, cada uno desde su ciudad y a través de una seducción digital entre Bozo y Clara Peya en forma de videollamadas». 

Y de esta relación nace la magia. Esa magia que nos conecta con nuestra esencia más puramente humana, esa esencia que derriba fronteras y construye puentes a través de la música. Esa magia en la que el arte, ese lenguaje universal que nos engancha a la emoción, a aquello que nos hace humanos, se abre camino.
Sigue leyendo