La revista más leída por las familias católicas de España

La revista más leída por las familias católicas de España

Cómo saber cuáles son los límites éticos de la inteligencia artificial

El desarrollo de la inteligencia artificial va a una velocidad de vértigo. No hay ámbito en el que no se la presente como la solución a cualquier problema. Pero, además del buen uso que se le puede dar, su irrupción en nuestra vida diaria plantea grandes dilemas éticos. ¿Existe el riesgo de que esta “inteligencia” le robe a la humanidad lo que la hace humana?

Artículo publicado en la edición número 71 de la revista Misión, la revista de suscripción gratuita más leída por las familias católicas de España.

Por Javier Lozano

En marzo de 2023 los medios de comunicación de todo el mundo se hacían eco de la carta abierta firmada por 1.000 expertos en inteligencia artificial (IA) y ejecutivos de empresas tecnológicas, entre los que se encontraban Elon Musk (Tesla) o Steve Wozniak (cofundador de Apple), en la que pedían una pausa de seis meses en todo el mundo en los entrenamientos de los sistemas de IA asegurando que entrañaban “profundos riesgos para la sociedad y la humanidad”.

Un año después, esta “carrera fuera de control” de la que alertaban no sólo no se ha frenado, sino que va aún más rápido, incluso auspiciada por algunos de aquellos firmantes. Ahora la inteligencia artificial llena debates televisivos, reuniones de trabajo e incluso las tertulias de amigos, porque esta tecnología lo abarca todo: desde el conocido ChatGPT, a la generación de imágenes “artificiales” que se pueden producir en cuestión de segundos, a las aplicaciones para el diagnóstico y el análisis médico, a su  “intervención”  en conflictos bélicos como los de Ucrania o Israel. Y sin olvidar, además, el desarrollo de robots sofisticados y otras máquinas para usos diversos, incluidas aquellos capaces de emular relaciones emocionales con seres humanos.

Copiar la mente humana

Agustín Domingo, catedrático de Filosofía Moral y Política en la Universidad de Valencia, explica a Misión que existen numerosos dilemas éticos alrededor de la IA, comenzando por su propio nombre, el cual asegura que tiene “una finalidad comercial”, pues “técnicamente hablando si hay inteligencia, no es artificial, y si es artificial, no es inteligencia natural humana”.

Partiendo de esta base, el autor hace una distinción clave en lo que debe ser la IA y en lo que diversos intereses ideológicos y económicos querrían convertirla. “La IA es un conjunto de recursos técnicos y herramientas que ayudan a las organizaciones humanas y a los seres humanos a tomar decisiones”. Bien aplicada, advierte, “puede ser de gran utilidad para la sociedad”. Sin embargo, alerta de un gran peligro: “Existe el deseo de emular o sustituir la mente humana, dejando atrás la forma de decidir propia del ser humano”.

Quienes defienden esta concepción de la IA para suplantar al ser humano –agrega el autor de Del hombre carnal al hombre digital (Teell Editorial, 2021)–, creen que el humanismo es una etapa que hay que superar con el transhumanismo, creando un sistema tecnocrático en favor de una utopía que base su poder en la inteligencia artificial.

Tres grandes dilemas

El peligro de la tecnocracia, precisamente el “que las personas quedemos relegadas ante el avance tecnológico”, es uno de los tres grandes dilemas éticos relacionados con la IA que cita a Misión Rafael Amo, doctor en Teología y Filosofía y director de la Cátedra de Bioética de la Universidad Pontificia de Comillas.  “Dado que la tecnología nos suele hacer más fácil la vida e incluso a ayudar a los más vulnerables, el peligro es que pensemos que hay que desarrollar la tecnología a toda costa. Si se traslada el mito del progreso continuo al desarrollo tecnológico, es fácil caer en la despersonalización y olvidarse de que la tecnología está al servicio de la persona y no al revés”, asegura el coordinador de la obra Inteligencia Artificial y Bioética (Comillas, 2023).

El segundo dilema, y nada desdeñable, es el de los datos. Rafael Amo recuerda que estos sistemas de IA se alimentan de datos y las personas son precisamente la fuente de esta información.  “A los ojos de los ­desarrolladores –señala– podemos convertirnos en presas fáciles para extraernos datos. Esto supone una instrumentalización de la persona, que deja de ser un fin en sí misma y pasa a ser un simple medio”. Citando a Kant, asegura que de esta manera “dejaríamos de tener dignidad (valor) y pasamos a tener precio, como los objetos”.

Por último, este experto alerta del dilema de la justicia. Existe el riesgo de incidir en la brecha social y de que se cometan serios errores según la intencionalidad con la que se recojan los datos, con graves consecuencias médicas, económicas o asistenciales, por ejemplo, para ciertas personas.

Custodiar lo humano

“Los datos y la información son necesarios, pero no suficientes. Necesitamos el factor humano. Nunca como ahora el factor humano había sido tan importante, ni la ética tan urgente”, agrega Domingo, quien reclama que “a la IA no se le dé un cheque en blanco”.

El profesor de la Universidad de Valencia advierte de que la IA se está convirtiendo también en un recurso cultural, no sólo tecnocrático, para generar la nueva utopía de una humanidad más feliz, más justa y benéfica. Es lo que él denomina la “mitologización de la inteligencia artificial”. “Parece que ahora, para legitimar cualquier cosa, desde el diseño de un puente a la gestión de los servicios sociales, hay que barnizarlo todo de IA. Esto no deja de ser una instrumentalización política y perversa de las herramientas tecnológicas”, agrega.

Cuando se “mitifica” la IA, el riesgo que el profesor Domingo percibe es el de la “deshumanización” de las relaciones humanas, ya que esta tecnología significa “abstracción, mecanización, desvinculación y despersonalización”. Por ello, cree que a medida que se invierta en IA, será más urgente que personas muy preparadas valoren los pensamientos, las emociones y los afectos, es decir, que custodien lo que nos hace humanos.

Rafael Amo incide en que la persona necesita otro humano delante para sentirse dignamente tratada: un rostro que le mire a los ojos al dar una noticia o una mano que le acaricie cuando está enferma. Incide en que este trato humano no puede ser sustituido por un sistema de IA, por lo que la sociedad tendrá que estar atenta para no dejar que se prefiera la eficiencia frente a la humanidad.

Tres caminos

Para respetar la dignidad humana y la justicia en este campo, Amo apuesta por tres vías. “El primer camino es siempre la educación. Si las personas no tienen una educación ética, de nada sirven otras opciones”, afirma. También deben orientarse los códigos deontológicos de las distintas profesiones implicadas en la IA, para que se les obligue a respetar la justicia y la dignidad en el diseño y uso de estas tecnologías. Y, por último, también a través del Derecho, pues afirma que “el legislador debería atender a los valores éticos, antes que a los intereses –normalmente económicos– de las grandes empresas implicadas en el desarrollo de la IA”.

La historia siempre tiene ejemplos válidos para tiempos convulsos. Frente a una ética utilitarista que busca maximizar el beneficio, pone el ejemplo de la esclavitud. “Cuando se decidió considerar que todos los humanos estábamos dotados de la misma dignidad, se abolió la esclavitud. Por tanto, los límites éticos de los usos de la IA deberían ser los que la humanidad ha aplicado en otros casos y le han conducido a un mundo más humano”, concluye.

Algor-ética: una respuesta desde el origen
¿Es aceptable que la decisión sobre la vida o el destino de un ser humano se confíe a un algoritmo? La Iglesia da respuesta a este interrogante a través de lo que se ha bautizado como “algor-ética”, la cual otorga unos principios éticos a los algoritmos. Bien utilizados, los algoritmos pueden prestar un gran servicio, pero dirigidos al mal pueden tener consecuencias nefastas. “Más tecnología y más Inteligencia Artificial piden más responsabilidad. Más técnica pide más ética”, recuerda a Misión Agustín Domingo, catedrático de Filosofía Moral y Política de la Universidad de Valencia. “La algor-ética no sólo regularía el funcionamiento de las máquinas o la gestión que realizan las personas que están a cargo de ellas, sino también el proceso moral relacionado con el diseño, la creación, la aplicación y la gestión de los algoritmos”, señala.
Los algoritmos son herramientas y su impacto depende de la configuración con la que sean programadas, ya que la IA no tiene capacidad para comprender aspectos puramente humanos como la moral, la ética o las emociones profundas, pues no existe fórmula que pueda reproducirlas. Corresponde a la mano humana diseñar estos algoritmos de modo que las tareas que se les encomiendan vayan enfocadas al bien común. Sólo así podremos evitar una “algoritmización” que lleve a la “despersonalización y la deshumanización”, sentencia Domingo.

La opción eremítica para la inteligencia artificial
Luis Echarte, profesor de la Universidad de Navarra, apunta que hoy el ser humano es capaz de hacer tres cosas antes impensables: destruir el planeta con una bomba o con un virus, controlar a los ciudadanos y diseñar robots que emulan nuestra forma de sentir. Frente a estas amenazas, que demuestran un peligro real de deshumanización, él da tres claves para responder.
1. Recuperar el papel de la persona. Es la persona quien tiene que estar en el centro de la tecnología. Echarte advierte de que no se trata de que la persona se vuelva egocéntrica, ni mucho menos, sino de que no renuncie en ningún momento a modular las relaciones con la ciencia y la tecnología.
2. Crear espacios de contemplación. Este profesor alerta de que la “atomización y la tecnificación” afectan también a la forma de vivir y de pensar de los propios católicos. Por eso anima a tomar distancia, no para darle la espalda al mundo tecnológico, sino para crear “espacios para contemplar el mundo y a las personas de manera no tecnificada”. 
3. Promover la “soledad” que salva.  La apuesta de Echarte pasa por lo que él denomina una “opción eremítica”. No es una invitación literal a la vida eremítica, sino a entrenarnos en “ir más allá de la desconexión tecnológica”, porque sólo “en el silencio y en la soledad, es posible la comprensión objetiva de la persona, sus fines y los medios para alcanzarlos”. Frente a la soledad que genera la hiperconexión tecnológica, él aboga por descubrir una soledad benéfica que nos invita a poner el móvil en ‘modo avión’ y ver a las personas que están a nuestro lado, a observar el abrazo de un matrimonio en una estación de tren, el paisaje en un paseo por la naturaleza, el último aliento de un ser humano en un hospital…”. Todas esas experiencias son el contrapunto para la comprensión de la Inteligencia Artificial”, concluye.

¿Te ha gustado este artículo?

Para que disfrutes de más historias como esta

ARTÍCULOS RELACIONADOS

ARTICULOS DE INTERÉS

ARTICULOS DE INTERÉS

ÚLTIMA EDICIÓN

MARZO, ABRIL, MAYO 2024

MARZO, ABRIL, MAYO 2024