Conexiones beethik: entrevista a Marcel Cano

Marcel CanoProfesor de ética y filosofía política – Universidad de Barcelona

Profesor Bioética en la UVic

 

 

1. ¿Qué te sugiere el concepto de ética de la responsabilidad radical?

En primer lugar, me sugiere una tautología (en sentido retórico): la ética debe ser radical si realmente quiere ser ética, no puede ser otra cosa. Radical viene de ‘radical’, lo que proviene de la raíz. En este sentido la ética es doblemente radical: en primer lugar, nos lleva a lo más íntimo y esencial de la condición humana, lo que está en lo más profundo de nosotros y por lo tanto está en nuestras raíces. En segundo lugar, nos compromete de manera radical ante el mundo y ante nosotros mismos. Una ética «superficial» es simplemente un simulacro sin valor ni interés, quizás un mero añadido estético (en el peor sentido de la palabra «estético»). Además, es siempre un ir más allá de la moral hacia lo que supera las codificaciones y las respuestas «lógico-matemáticas». Quizás incluso, en sentido witgensteiniano, hace referencia especialmente a aquello que no puede ser codificado en el lenguaje de los hechos (huyendo por tanto del omniabracador “solucionismo” contemporáneo).

En segundo lugar, si añadimos «responsabilidad» todavía profundizamos más en la tautología: no se puede pensar la ética sin pensar en la responsabilidad, a menos que la reduzcamos a una empatía sociobiológica genéticamente codificada: un mero mecanismo. Algo mecánico está determinado en su causalidad por una causa previa. No es el caso del ser humano, al que podemos llamar «autónomo». Alguien que es autónomo tiene el principio de acción en sí mismo y, por tanto, es siempre responsable.

Es necesario matizar: ¿de qué hablamos cuando hablamos de autonomía humana? Obviamente no hablamos de un ser absolutamente libre que toma siempre decisiones racionales independientemente de los condicionamientos. No. Hablamos justamente de algo que es aún más valioso: un ser que toma decisiones complejas en contextos de incertidumbre, en medio de una gran vulnerabilidad y cruzado por múltiples condicionamientos (culturales, sociales, biológicos, psicológicos). Un ser, por tanto, que a pesar de todo puede ser considerado autónomo y por tanto responsable. Si no pudiéramos considerarlo autónomo no podríamos tampoco considerar responsable. Sería, como ya hemos dicho, un mecanismo que respondería meramente a estímulos.

La enorme complejidad e incertidumbre que se abre entre nuestras decisiones responsables y nuestra vulnerabilidad, justamente con la insoslayable interdependencia que supone ser humano (nadie puede vivir sin los otros, incluso el eremita ha necesitado a los demás para alcanzar ser humano y tomar su decisión) nos obliga a ser radicalmente responsables.

2. En la actualidad estás acompañando a diferentes organizaciones a elaborar sus códigos éticos y a implementar espacios de reflexión ética. Desde tu punto de vista, ¿cómo definirías la presencia de la ética en las empresas y organizaciones?

Hablaré primero del acompañamiento en ética y de las creaciones de códigos éticos. En segundo lugar, de la presencia de la ética en las organizaciones y empresas.

Los Espacios de Reflexión Ética y los Comités de Ética, a pesar de las diferencias que existen entre ellos tienen en común la finalidad esencial de promover la reflexión ética para modificar, y si puede ser mejorar, las condiciones de vida de las personas. Esto afecta a todas las personas que están implicadas en las relaciones humanas que se generan dentro del grupo. Por lo tanto, y siguiendo con lo expuesto en la respuesta a la anterior pregunta, la ética debe aportar una reflexión sobre la responsabilidad de las instituciones y las personas que las componen en contextos complejos y, a menudo, con una alta vulnerabilidad. Por tanto, se debe articular la autonomía individual con los intereses colectivos de manera responsable. Si, además, nos damos cuenta de que las organizaciones no son entes aislados, sino que nacen, crecen y mueren dentro de sociedades concretas y reales, se nos muestra todavía con más claridad cómo de importante es ser consciente de la responsabilidad de las organizaciones como entidades capaces de tener efectos muy relevantes dentro de las sociedades.

En este sentido es importante pues reflexionar, clarificar y dar a conocer cuáles son nuestros compromisos para con las personas (de dentro y de fuera de las instituciones) ya que son el resultado de la toma de conciencia de nuestra responsabilidad. Los códigos éticos son estas declaraciones. Si un código ético no es participativo (creado cooperativamente por todos los miembros de la organización) ni comprometedor (nos obliga a autolimitarnos – no todo lo que se puede hacer se debe hacer – y hacernos conscientes de nuestras responsabilidades) no sirve más que como elemento de marketing. Ahora bien, la presencia de un código ético no implica que hemos solucionado nuestros problemas éticos. De hecho, no los podremos «solucionar» nunca: la realidad es demasiado compleja para cerrarla entre los estrechos límites de cualquier declaración. La función de los códigos éticos, por tanto, es doble: por un lado nos compromete a querer (la voluntad es esencial) hacer las cosas de una determinada manera (cooperativa y responsable), por otro nos sirve de fara para navegar por el mar tempestuoso de la complejidad y la incerteza de la experiencia humana.

Así pues, la presencia de la ética en las empresas y organizaciones, además de ser una necesidad vinculada a la responsabilidad de toda entidad con el mundo que la ha hecho posible, debe ser uno de los factores esenciales que nos lleve a una transformación social y cultural profunda. Un cambio que necesitamos más que nunca y que nos lleve a potenciar la interdependencia, la corresponsabilidad, el respeto a la autonomía, la mejora de las condiciones sociales de las personas entre otros elementos fundamentales. En definitiva, si nos la tomamos en serio, la ética puede ser un factor de transformación social, cultural y personal.

¿Qué es la bioética y como nos ayuda a mejorar la práctica profesional?

Aunque la bioética nace dentro del ámbito de la medicina y las ciencias, en especial las vinculadas a la biología, durante estos últimos años se ha extendido a otros ámbitos profesionales. Si tomamos como ejemplo el principialismo veremos cómo los cuatro principios clásicos (autonomía, beneficencia, justicia y no maleficencia) son ahora utilizados para muchas profesiones, como por ejemplo las de los diferentes ámbitos vinculados con los servicios sociales.

La bioética nos aporta mejoras esenciales en la práctica profesional, especialmente valiosas en los ámbitos sociales ya que sus principios ponen de relieve cuestiones fundamentales:

  • La autonomía nos obliga a respetar las decisiones de las personas, aunque no sean las que nosotros consideraríamos óptimas. Sin este principio es fácil caer en los aspectos más perversos del paternalismo.
  • La beneficencia nos coloca delante de nuestra responsabilidad profesional: ¿qué es lo mejor que podemos hacer para la persona? Además, en la relación entre autonomía y beneficencia se muestran los límites que las condicionan: el límite de la beneficencia es la autonomía (sobrepasar este límite es caer a menudo en el paternalismo) pero la autonomía también tiene un límite ante la beneficencia: la buena praxis profesional.
  • La justicia a su vez es la condición de posibilidad de la autonomía misma: si todas las decisiones de los seres autónomos son válidas, es que todas tienen el mismo valor. Ahora bien, si una decisión autónoma sólo se puede llevar a cabo contra la decisión y la voluntad de otro, el papel de la justicia es muy relevante: reflexionar en torno a los conflictos de derechos y ponderar la justicia o injusticia de las decisiones cuando estas dañan o vulneran a los demás. Cuando esto ocurre sin esta ponderación y una reflexión adecuadas (justas) es cuando se rompe la justicia: una decisión ha sido valorada por encima de la del otro de manera injustificada – y por lo tanto injusta -. Por otra parte, esta igualdad no implica homogeneidad: si las personas son diferentes y sus necesidades también lo son, la justicia resulta injusta cuando nivela las diferencias sin considerar, justamente, el valor de la diversidad de las decisiones autónomas.
  • Finalmente, el clásico principio de ‘primum non nocere’ articula en buena medida el principio de no maleficencia.

4. Con la irrupción de la Inteligencia artificial en todos los ámbitos de la vida, ¿cuáles son los principales retos que tendremos que afrontar desde la ética?

No es fácil en tan poco espacio hablar de los retos que nos puede llegar a plantear en un futuro muy próximo la IA. Además, hacer predicciones sobre temas tan complejos e inciertos es siempre un poco atrevido. Si podemos desarrollar algunas reflexiones. Es importante decir también que sólo nos referiremos a la IA y la robótica, pero estas tecnologías son una parte de un conjunto más amplio y complejo que incorpora la biotecnología, la nanotecnología y la neurociencia. Es lo que se llama «convergencia de tecnologías». La potencia transformadora de estas tecnologías en interacción nos hace vislumbrar un futuro lleno de retos éticos.

Es pues muy difícil definir cuáles son los principales retos éticos de la irrupción de la IA en nuestras vidas porque apenas estamos empezando a comprender el alcance de lo que nos viene encima. Los expertos discrepan de si estamos ante la continuidad de la tercera revolución industrial o si ya podemos hablar de la cuarta. En cualquier caso, el futuro nos presenta muchas incógnitas llenas de consecuencias éticas. Hablaré primero de las consecuencias sociales y económicas sobre el trabajo y mencionaré los peligros de su uso militar, en segundo lugar, de las implicaciones individuales relativas al peligro de solipsismo radical y acabaré hablando de algo que, hoy por hoy, es ciencia ficción pero que quizás pueda convertirse en realidad en el futuro: la creación de una IA plena.

Antes de profundizar en posibles consecuencias negativas, éticamente relevantes, quiero dejar bien claro que también pueden tener efectos positivos tanto a nivel individual como social. Es lo mismo siempre para toda tecnología. De hecho, nuestra especie es una especie tecnológica ya que de la tecnología depende nuestra supervivencia. Ya sea utilizando piedras, metales o átomos los humanos nos relacionamos tecnológicamente con el mundo. Lo que ya no es universal son los condicionamientos sociales y culturales de las diferentes formas de tecnología que cada grupo humano ha generado. En nuestro caso está claro que nuestra tecnología (que debemos llamar tecnociencia) está profundamente arraigada en nuestra forma de ver el mundo y, por tanto, con ideas de control, dominio, progreso, cuantificación y otros que nacen en ese momento histórico que llamamos Modernidad e Ilustración. Podemos encontrar una crítica muy profunda de esta dinámica en la célebre obra de Adorno y Horkheimer Dialéctica de la Ilustración. Por lo tanto, proponemos un posicionamiento frente a la tecnociencia que tenga en cuenta los condicionantes culturales en el que se desarrolla, al tiempo que proponemos un aristotélico término medio entre dos polos extremos que llamaremos «tecnofobia» y «tecnoentusiasmo», ambos fuertemente condicionados por elementos culturales, sociales y políticos.

Para empezar a pensar en las consecuencias sociales, deberíamos reflexionar sobre el hecho de que es muy posible que desaparezca un gran número de puestos de trabajo y de profesiones. Algunos dicen, y no les falta razón, que en toda revolución industrial ha pasado lo mismo pero que en un cierto tiempo el «mercado laboral» (expresión ciertamente poco afortunada si la examinamos en profundidad, lo que no podemos hacer aquí) se ha reestructurado y se han recuperado nuevos puestos de trabajo y creado multitud de nuevas profesiones. Ahora bien, ¿podemos pensar que esto pasará también con esta nueva transformación tecnológica? Por lo menos tenemos elementos para dudarlo. En primer lugar, las perspectivas más optimistas hablan de la desaparición de casi un 30% de los puestos de trabajo (las más pesimistas proponen cifras de entre un 50% y un 60%). La proyección no invita al optimismo. Si pensamos por ejemplo en España, donde la cifra de parados está estas alturas alrededor del 16% y podemos pensar en una gran cantidad de paro estructural (algunos análisis hablan de un 14%), pensar en una sacudida como ésta es muy preocupante. Así pues, muchos pensadores y analistas afirman que a pesar de que se creen nuevos puestos de trabajo y profesiones, la tasa de paro estructural aumentará como nunca se ha visto en la historia en ninguna de las anteriores revoluciones industriales. Ante esta perspectiva ya son muchas las voces que piden una renta garantizada universal. En la actualidad se han producido, y todavía están en marcha algunos experimentos en esta línea, pero no han sido concluyentes. Lo que sí parece estar claro es que la reflexión está abierta. Incluso la cumbre de Davos de 2017 dedicó una parte de sus reflexiones a este tema y en la UE el informe de Maddy Delvaux reflexiona sobre la cuestión junto con otros temas relativos a la IA y la robótica. Así pues, ocurre con la IA como con toda tecnología: en buena medida somos responsables de qué efectos produce y qué perjuicios causa. Ya lo decía la primera ley de Kranzberg: «la tecnología no es buena ni mala, pero no es neutral». Por lo tanto, es imprescindible desarrollar una reflexión ética sobre estas consecuencias, con el objetivo de generar procesos de participación social sobre la tecnología. Siguiendo las ideas expuestas por Silvio Funtowicz y Jerome Ravetz en su obra de 1993, La ciencia postnormal. La ciencia con la gente, en contextos de gran incertidumbre generada por desarrollos tecnocientíficos, donde las consecuencias serán grandes y repartidas en toda la sociedad, es la misma sociedad la que debe participar en tales decisiones y no sólo los «expertos». En estos momentos ya aplicamos este mismo principio a escala individual y llama Consentimiento Informado. Ahora de lo que se trata es de generar un Consentimiento Social Informado. No hay duda pues que se trata de un reto ético con todos los pormenores. Finalmente, y no es necesario extenderse demasiado para hacerlo patente, los usos militares de la IA y los robots pueden ser devastadores. En esta línea se posicionan ya los ingenieros y científicos que han firmado un manifiesto contra el uso militar de armas autónomas: En estos momentos ya aplicamos este mismo principio a escala individual y llama Consentimiento Informado. Ahora de lo que se trata es de generar un Consentimiento Social Informado. No hay duda pues que se trata de un reto ético con todos los pormenores. Finalmente, y no es necesario extenderse demasiado para hacerlo patente, los usos militares de la IA y los robots pueden ser devastadores. En esta línea se posicionan ya los ingenieros y científicos que han firmado un manifiesto contra el uso militar de armas autónomas: https://futureoflife.org/open-letter-autonomous-weapons. No me extenderé pues en más reflexiones al respecto, ya que es evidente por sí mismo el hecho de que el uso militar de la tecnociencia no tiene ninguna justificación.

En cuanto a las consecuencias individuales, la aparición de los robots en un mundo que tiende a las adicciones, el aislamiento y la soledad pueden ser bastante negativas. Independientemente de que nos puedan ayudar en múltiples tareas de asistencia a personas vulnerables, en catástrofes y accidentes, en medicina y otras aplicaciones muy importantes, si el uso de robots «empáticos» se extiende como objeto de consumo generalizado los peligros son evidentes. Pensamos en la relación que tenemos con los smartphones e imaginamos que estos instrumentos fueran capaces de reconocer nuestro estado de ánimo y de generar una respuesta en consecuencia. El nivel de adicción y de aislamiento podrían crecer exponencialmente. Pues es justamente lo que algunos robots asistentes podrán hacer en poco tiempo. Obviamente no serán capaces de tener empatía, pero sí de simularla (y simularla muy bien). Los dispositivos de reconocimiento facial de las expresiones y las emociones, las mejoras en la comunicación a través de sistemas de comprensión y expresión en lenguaje natural y sus capacidades de conectarse con lo que se ha denominado «el internet de las cosas» puede hacer de los robots unos asistentes ideales para muchas personas. Con el riesgo de generar un vínculo afectivo con una máquina que, en realidad, no será otra cosa más que una herramienta eso sí, muy sofisticada. Pero para muchas personas el contacto con las máquinas sustituirá el contacto con las personas. Pensamos si no en los efectos de las redes sociales o los ya mencionados smartphones. Así pues, una vez más, una tecnología potencialmente muy útil tiene una cara oscura evidente. De nuevo, como en el caso anterior, ¿debemos poder desarrollar un proceso de diálogo social informado que nos permita reflexionar sobre preguntas tan fundamentales como qué riesgos estamos dispuestos a asumir? ¿A cambio de qué beneficios? ¿en qué condiciones? ¿para quién? Etc.

Por último, como ya he dicho antes, me referiré a un tema que hoy es, y quizás siempre lo será, pura ciencia ficción: la inteligencia artificial plena. ¿Qué pasaría si fuéramos capaces de construir una máquina que fuera, realmente, autónoma y autoconsciente? Que fuera pues, capaz de pensar por sí misma, de establecer sus propios objetivos independientemente de nosotros… ¿No estaremos hablando de un ser autónomo? Realmente autónomo y no como, por ejemplo, el vehículo autónomo del que tanto se habla ahora y que no es más que un coche dirigido por un complejo algoritmo que le permite tomar determinadas decisiones en ciertos contextos. Y si es un ser autónomo y racional, ¿no deberíamos, siguiendo a Kant, respetarlo como un fin en sí mismo? Este hecho abre toda una serie de perspectivas y preguntas muy interesantes:

  • ¿Como tendremos que tratar a una criatura así? ¿Como un objeto? Es decir, ¿como un esclavo? Pero si lo hacemos, ¿estaremos actuando de una manera éticamente reprobable ya que no sería en realidad un mero objeto sino un sujeto? ¿Un sujeto de derechos?
  • Y, si como a muchos les da miedo (como Elon Musk o al recientemente desaparecido Stephen Hawkin) una criatura así, que además fuera mucho más inteligente y fuerte que nosotros, conectada a internet – tanto el de los conocimientos como el de las cosas – ¿no podría considerarnos como elementos prescindibles?
  • O bien, ¿no podría asumir que nuestra imperfección es inherente a nuestra condición humana y, asumiendo un posicionamiento paternalista, decidir que es mejor para nosotros, por nuestro propio bien, que nos gobierne ella?

Como vemos, podemos abrir toda una serie de interrogantes éticos que, si bien tal vez no tendremos que responder nunca, dadas las sorpresas que nos ha ido dando la tecnociencia en estos escasos dos siglos, vale la pena empezar a plantearse.

5. En tres palabras, ¿qué significa para ti incorporar la ética en la toma de decisiones?

Deber, responsabilidad, necesidad.