Una vida digital 'post mortem'

Europa Press
-

Los expertos advierten de los riesgos psicológicos de utilizar la Inteligencia Artificial para «hablar» con seres queridos fallecidos

Una vida digital ‘post mortem’

La inteligencia artificial que permite a los usuarios mantener conversaciones de texto y de voz con sus seres queridos perdidos corre el riesgo de causar daño psicológico e incluso perseguir digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño.

Una investigación, publicada en la revista Philosophy and Technology, destaca el potencial de las empresas de utilizar robots muertos para anunciar subrepticiamente productos a los usuarios a la manera de un ser querido fallecido, o angustiar a los niños al insistir en que un padre fallecido todavía está con usted.

Los Deadbots o Griefbots son chatbots de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de los muertos utilizando las huellas digitales que dejan. Algunas empresas ya ofrecen estos servicios, proporcionando un tipo completamente nuevo de «presencia post mortem».

Los especialistas en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge describen tres escenarios de diseño para plataformas que podrían surgir como parte de la «industria de la vida futura digital» en desarrollo, para mostrar las posibles consecuencias de un diseño descuidado en un área de la IA que describen como de «alto riesgo».

Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte, las empresas podrían utilizar los chatbots resultantes para enviar spam a familiares y amigos supervivientes con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que brindan, similar a ser «acechado digitalmente por los muertos».

Incluso aquellos que inicialmente encuentran consuelo en un robot muerto pueden sentirse agotados por las interacciones diarias que se convierten en un «peso emocional abrumador», argumentan los investigadores, pero también pueden ser impotentes para suspender una simulación de IA si su ser querido ahora fallecido firmó un largo contrato con un servicio de vida futura digital.

«Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido», afirma la doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el Centro Leverhulme para el Futuro de la Inteligencia de Cambridge (LCFI). «Este área de la IA es un campo minado ético. Es importante dar prioridad a la dignidad de los difuntos y garantizar que esto no se vea invadido por motivos financieros, por ejemplo, de servicios digitales de ultratumba.

«Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera. Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual». Ya existen plataformas que ofrecen recrear a los muertos con IA por una pequeña tarifa, como Project December, que comenzó aprovechando modelos GPT antes de desarrollar sus propios sistemas, y aplicaciones como HereAfter. También han comenzado a surgir servicios similares en China.

Si bien Hollanek y Nowaczyk-Basinska dicen que los diseñadores de servicios de recreación deberían buscar activamente el consentimiento de los donantes de datos antes de su aprobación, argumentan que una prohibición de los deadbots basada en donantes que no dan su consentimiento sería inviable.