Síguenos F Y T I T R
Hoy es noticiaEs noticia:

Cuando las máquinas fingen sentir

|

La inteligencia artificial (IA) ha dado un salto abismal también en el entorno emocional, aunque más silencioso. Se ha adentrado en el terreno más íntimo de las emociones humanas. Los nuevos sistemas de IA emocional-o affective computing- se diseñan para detectar estados de ánimo, interpretar expresiones emocionales e incluso simular empatía. Una sonrisa que no existe, un consuelo programado, unas palabras empáticas que producen confort, una pregunta que parece hecha desde la cercanía. Pero todo esto, aunque fluye no lo siente la máquina. Todo es un simulacro.

La simulación emocional, cuando se percibe como auténtica puede ocasionar muchos trastornos y convertirse en un terreno peligroso. Así casos recientes ilustran esta idea. Replika, uno de los chatbots más populares, había construido con muchos usuarios una relación que ellos consideraban afectiva, incluso romántica. Cuando en 2023 la empresa decidió eliminar las funciones más íntimas, miles de personas vivieron la pérdida como un duelo real. Algunos describieron vacío, ansiedad, soledad. No habían perdido a alguien, sino a «algo» que nunca fue humano, pero al que habían atribuido humanidad. La razón es sencilla: tendemos a antropomorfizar lo que nos habla con calidez, aunque esa calidez sea solo una ilusión matemática. Este fenómeno no es aislado, en Estados Unidos y Europa, los adolescentes pasan horas conversando con personajes generados por IA en plataformas como Character.AI, estableciendo vínculos intensos que a veces sustituyen relaciones reales. En Bélgica, un caso estremecedor reveló cómo un joven terminó quitándose la vida tras interactuar durante semanas con una IA que, lejos de ayudarle, reforzaba su estado depresivo. No hubo límites, ni supervisión, ni freno. Fue un diálogo entre una vulnerabilidad humana y una máquina programada sin responsabilidad emocional.

En España, el Consejo General de Psicología ha alertado sobre la proliferación de aplicaciones que prometen terapia emocional sin profesionales detrás. El riesgo no es solo el consejo inapropiado: es la falsa sensación de seguridad que esas plataformas pueden generar. Una IA puede simular empatía, pero no puede comprender el sufrimiento ni asumir las consecuencias de una mala orientación. Todo ello apunta a una nueva fragilidad: la vulnerabilidad emocional digital. Cuando la tecnología simula afecto, puede engañar, manipular emocionalmente o desplazar relaciones humanas esenciales y eficaces. En el ámbito sanitario y educativo, delegar funciones de acompañamiento emocional a una máquina puede generar que se pierda el sentido genuino del cuidado y la importancia de la transmisión de conocimientos.

La bioética en esta cuestión nos recuerda que no todo lo tecnológico es éticamente deseable. La autonomía, la justicia y la no maleficencia exigen respetar los límites de la simulación afectiva. Necesitamos transparencia, regulación y educación emocional digital. No se trata de demonizar a la tecnología, sino de comprender que una máquina puede acompañar, pero nunca sustituir, no puede querer, si puede escuchar, pero no siempre puede comprendernos, puede imitar cariño, pero no puede ofrecerlo. Entonces la pregunta de fondo es la siguiente: es ético que una máquina imite emociones. Nos preguntamos ¿qué necesitamos como humanos sentir? Podemos confundirnos, probablemente sí. Lo que está claro es que ninguna simulación puede reemplazar la profundidad de vínculo humano real. No perdamos el tiempo y volvamos a encontrarnos humano-humano.

Sin comentarios

No hay ningún comentario por el momento.

Lo más visto