Conexiones beethik: entrevista a Idoia Salazar

Idoia Salazar

Presidenta y fundadora de OdiseIA, observatorio del impacto social y ético de la inteligencia artificial. Es periodista, investigadora y profesora en la Universidad CEU San Pablo y se declara decidida a contribuir al desarrollo ético y responsable de la Inteligencia Artificial. Es speaker y autora de numerosos artículos y libros sobre inteligencia artificial. Además, es expert in the EU Parliament AI Observatory (EPAIO) y Country advisor (Spain) in the Advisory Board of International Group of Artificial Intelligence, entre otros.


1. Hace años que se habla de los cambios que está provocando y provocará la integración de la Inteligencia Artificial (IA) en nuestras vidas. Pero últimamente el debate se ha acelerado y parece que van apareciendo miedos y precauciones. ¿Qué es lo que nos preocupa tanto?

Nos preocupa enfrentarnos a casos que antes solo veíamos en películas y literatura de ciencia ficción. La cuestión es que ahora está en los telediarios y eso incita al desasosiego y a la intranquilidad. Además, tenemos el hecho de que son muchos los medios de comunicación generalistas que exaltan la parte más “llamativa” de la IA. Es decir, los sistemas de IA integrados en robots humanoides -como es el caso de Sophia- que parece que interactúan de manera autónoma con los humanos. Este hecho, aplicado a una sociedad poco preparada que no entiende bien qué es un sistema de IA y en qué momento de desarrollo nos encontramos, se traduce en un temor fundamentado en el desconocimiento de la realidad entorno a esta tecnología.


2. A menudo afirmas que tenemos que poner a la persona en el centro de la IA. ¿Qué significa esta afirmación? Y, sobre todo… ¿cómo se hace?

Los sistemas de inteligencia artificial tienen una peculiaridad que no tienen otras tecnologías. Pueden “aprender” y llegar a conclusiones o “decisiones” de manera autónoma. Este hecho puede significar que nosotros, como humanos, deleguemos en exceso en las máquinas en esta “toma de decisiones”. Imaginemos que un departamento de gestión de personas usa un sistema de IA para seleccionar quién va a desempeñar un puesto de trabajo específico dentro de una empresa. Este trabajo es posible automatizarlo con estas herramientas de IA, ya que el sistema tiene la capacidad de analizar al detalle todos los currículums recibidos y contrastarlo con las necesidades del puesto. Pero la cuestión no es la capacidad, sino si realmente debemos delegar estas decisiones concretas que pueden incidir en el futuro de una persona. En conclusión: las personas del departamento de RRHH se pueden ayudar de los sistemas de IA, pero no sustituir, sin supervisión, sus decisiones humanas por las de la IA. Es una cuestión de responsabilidad. La IA no puede “rendir cuentas”, (al menos por ahora), el humano sí. Por lo tanto, la responsabilidad última de la toma de decisiones en este tipo de asuntos tiene que seguir siendo de los humanos.


3. El libro “El algoritmo y yo”, que has escrito junto a Richard Benjamins representa una guía de la convivencia entre seres humanos y artificiales ¿Por qué “convivir” y no, por ejemplo, “interactuar”? ¿O utilizar? ¿Se puede hablar de convivencia entre humanos y máquinas?

Richard Benjamins y yo decidimos utilizar el término «convivir» en lugar de palabras como «interactuar» o «utilizar» para enfatizar la relación más profunda y bidireccional que existe entre los seres humanos y la inteligencia artificial en la actualidad.

La «convivencia» sugiere una relación más cercana y armónica en la que ambas partes, humanos y máquinas, se benefician y se influyen mutuamente. Además, implica una responsabilidad compartida en la forma en que estas tecnologías se desarrollan, se aplican y se integran en la sociedad. En el contexto explicado en el libro, la convivencia se refiere a la necesidad de establecer pautas éticas y sociales para garantizar que la inteligencia artificial se utilice de manera justa y beneficiosa para todos.

Por otro lado, es cierto que puede parecer extraño hablar de “convivencia” entre humanos y máquinas. Creemos que esta perspectiva refleja mejor la realidad actual en la que la inteligencia artificial está transformando rápidamente nuestras vidas y cómo nos relacionamos con la tecnología. Adoptar una actitud de “convivencia” nos permitirá abordar los desafíos y oportunidades que surgen de esta relación que, sin duda alguna, se encuentra en constante evolución.


4. Actualmente el control del diseño y la gestión de la inteligencia artificial está bajo el poder de intereses privados. ¿Cómo se va a poder controlar del poder tecnológico y proteger a la ciudadanía? Las iniciativas legislativas que se están desarrollando, ¿van a llegar a tiempo?

En mi opinión, para controlar el poder tecnológico y proteger a la ciudadanía, es fundamental establecer un marco regulatorio sólido y garantizar la colaboración entre gobiernos, empresas privadas, investigadores y la sociedad civil. Los gobiernos tienen un papel fundamental en la implementación de leyes y regulaciones que protejan la privacidad de los datos, promuevan la transparencia y eviten la discriminación y el sesgo en la IA.

Es importante también el desarrollo de estándares éticos en la investigación y aplicación de la IA para garantizar un uso responsable de estas tecnologías. Por ejemplo, nosotros, desde OdiseIA, hemos desarrollado el proyecto GuIA, que son unas guías prácticas para el uso responsable de la IA adaptadas sobre casos de uso en sectores concretos: tecnológicas, salud, seguros…Todo esto, basándonos en análisis de más de 100 códigos éticos en IA internacionales de organizaciones y empresas. Y, en la actualidad, estamos trabajando en un sello de confianza en la inteligencia artificial, basándonos en nuestra amplia experiencia en el área. Creo en la importancia de implementar auditorías y supervisión independientes de los sistemas de IA para garantizar su transparencia y responsabilidad.

También me gustaría destacar la importancia de la educación y la concientización sobre la IA para empoderar a los ciudadanos y permitirles comprender y participar en discusiones sobre cómo se desarrolla y aplica la IA.

En cuanto a las iniciativas legislativas en desarrollo, es difícil determinar si llegarán a tiempo para abordar todos los desafíos que plantea la IA. Sin duda, se está haciendo un gran esfuerzo a nivel europeo con la Regulación de la Comisión Europea en IA (AI ACT). Sin embargo, es fundamental que los gobiernos y las organizaciones internacionales sigan trabajando de manera proactiva para anticipar y enfrentar estos desafíos a medida que surgen.


5. Una de las mayores preocupaciones sociales con relación al uso de la IA es su posible impacto en un aumento de la discriminación y la desigualdad por los sesgos derivados del diseño de determinados algoritmos. ¿Qué recomendaciones nos darías a las personas de a pie para protegernos y elevar la consciencia de los riesgos que tenemos ante la presencia creciente de la IA en nuestras vidas?

Sin duda, la preocupación sobre la discriminación y la desigualdad relacionadas con el uso de IA es legítima. Para las personas de a pie, una de las mejores formas de protegerse y aumentar la conciencia sobre los riesgos asociados con la IA en nuestras vidas es mantenerse informado sobre los avances y debates en el campo de la IA y la ética.  Es importante que cualquier ciudadano, independientemente de su edad o condición, conozca cómo funciona la IA y cuáles son sus posibles consecuencias. Esto permitirá tomar decisiones más informadas y responsables al interactuar con estas tecnologías. Además, permitirá una ampliación del criterio al evaluar la información y las noticias relacionadas con la IA. No todas las aplicaciones de IA son iguales, y es importante comprender la diferencia entre aquellas que están diseñadas de manera responsable y aquellas que pueden tener efectos perjudiciales. Una de las principales recomendaciones que daría sería intentar ser más consciente de nuestra huella digital.  Es importante aprender a proteger la privacidad de nuestros datos personales, ya que la IA se basa en gran medida en el análisis y la utilización de datos. Debemos intentar entender cómo las empresas y las plataformas en línea utilizan nuestra información y configuran nuestras preferencias de privacidad de manera adecuada puede ayudar a mitigar los riesgos relacionados con la IA.

También aconsejaría asistir a diálogos o debates sobre la IA y su impacto, con expertos que puedan responder a cuestiones que se nos plantearán en muchas ocasiones. Nosotros en OdiseIA fomentamos estos encuentros.


6. Ya es una realidad el hecho de que la IA está tomando decisiones por nosotros (las rutas propuestas por el GPS, las recomendaciones de las plataformas de entretenimiento…incluso le preguntamos al ChatGPT qué podemos hacer ante un problema ético). Con el tiempo, podemos llegar a delegar en la IA gran parte de nuestras decisiones, pero si esto sucede, ¿qué nos queda como seres humanos?

Es cierto que la IA está desempeñando un papel cada vez más importante en nuestras vidas y decisiones cotidianas. También lo es que muy probablemente lleguemos a delegar gran parte de nuestras decisiones en la IA. Para saber afrontar este hecho, que muy probablemente ocurrirá, es crucial recordar que, como seres humanos, aún tenemos la responsabilidad y el control último sobre nuestras acciones y elecciones. Debemos recordar que la IA puede ser una herramienta valiosa para ayudarnos a tomar decisiones informadas y optimizar nuestras acciones, pero no debe reemplazar por completo nuestra capacidad de pensar, razonar y reflexionar.

Creo que la clave para mantener nuestra humanidad en la era de la IA radica en fomentar la educación, la conciencia y el compromiso con la ética y los valores humanos. Al adoptar un enfoque crítico y reflexivo sobre cómo utilizamos y nos relacionamos con la IA, podemos asegurarnos de que sigamos siendo seres humanos con espíritu crítico, empatía y responsabilidad, incluso cuando la IA desempeña un papel importante en nuestras decisiones y acciones.


7. Recientemente publicamos una ¿entrevista? con el ChatGPT ¿Qué te pareció? ¿Qué impacto pueden tener en nuestras vidas estos modelos de lenguaje de aprendizaje automático?

La entrevista es muy buena. Deja entrever la tremenda potencia de esta tecnología y el impacto que puede tener en nuestra rutina diaria. Sin duda, cambiarán muchas cosas a partir de estos desarrollos de la IA Generativa.

La cuestión es si nuestra sociedad está preparada para asumir estos cambios. Para dejar que la IA activa forme parte de sus vidas, como una herramienta más. ¿Cómo será este cambio? Posiblemente mucho más rápido de lo que pensamos debido a la utilidad clara de estos modelos del lenguaje. Las empresas, al usarlo, pueden aumentar la productividad automatizando tareas relacionadas con la redacción, como la creación de informes, resúmenes, correos electrónicos y otros documentos. También pueden mejorar la toma de decisiones al analizar grandes cantidades de datos y extraer información relevante. Lo van a usar, si no lo hacen ya. Y pronto.

Imaginemos su utilidad en el campo de la educación. Gracias a esta tecnología se pueden ofrecer tutoriales personalizados y herramientas de aprendizaje adaptativo para ayudar a los estudiantes a aprender de manera más eficiente y eficaz. Además, pueden proporcionar retroalimentación inmediata y asesoramiento. La labor de los profesionales humanos sigue siendo muy útil, aunque estas herramientas, sin duda, proporcionarán un apoyo importante. Además, puede ayudar a las personas con discapacidades, como las dificultades auditivas o del habla, a comunicarse a través de interfaces de lenguaje natural y sistemas de reconocimiento de voz. Un sinfín de utilidades y muchas que aún no hemos descubierto.


8. En el ámbito de la IA nos centramos, habitualmente, en los impactos negativos, pero también se derivan, posiblemente, oportunidades. ¿Cuáles crees que son las principales contribuciones que puede aportar la Inteligencia Artificial para el desarrollo de modelos organizativos más éticos y responsables?

Hoy día no sería ético no usar la inteligencia artificial. Nos abre un mundo de nuevas oportunidades. Una de las principales es la identificación y corrección de sesgos. La IA puede ayudar a detectar y abordar sesgos en datos y algoritmos, lo que permite a las organizaciones tomar decisiones más justas y éticas. Por ejemplo, esto es especialmente relevante en áreas como la contratación, el crédito y la distribución de recursos. También puede mejorar la eficiencia y la sostenibilidad de las operaciones organizativas. Al optimizar procesos y reducir el desperdicio de recursos, las organizaciones pueden adoptar prácticas más respetuosas con el medio ambiente y socialmente responsables.

Por poner otro ejemplo, destacaría el papel de la IA para facilitar la toma de decisiones informada y basada en datos en las organizaciones. Es decir, al proporcionar información valiosa y análisis en tiempo real, puede ayudar a los líderes organizacionales a tomar decisiones estratégicas más éticas y responsables que consideren el bienestar a largo plazo de sus empleados, clientes y comunidades. Además, puede desempeñar un papel importante en la promoción de la inclusión y la diversidad dentro de las organizaciones ayudando a identificar y abordar barreras y desigualdades en el acceso a oportunidades.


9. Por último, si tuvieras que ilustrar, con tres palabras qué significa para ti incorporar la ética en la toma de decisiones de la IA, ¿cuáles serían?

Responsabilidad, equidad y transparencia.