Menú

Amor con una IA: un riesgo para tu salud mental... y algo peor

Psicólogos alertan sobre los riesgos emocionales y éticos de las relaciones entre humanos e inteligencia artificial.

Psicólogos alertan sobre los riesgos emocionales y éticos de las relaciones entre humanos e inteligencia artificial.
IA: psicólogos alertan sobre sus riesgos emocionales y sociales | Libertad Digital

Un grupo de psicólogos de la Universidad de Ciencia y Tecnología de Missouri (Estados Unidos) ha publicado un artículo de opinión en el que reflexiona sobre los desafíos éticos que surgen en las relaciones entre humanos e inteligencia artificial. Los especialistas destacan cómo este tipo de vínculos puede alterar las relaciones humanas y generar consecuencias perjudiciales, como el ofrecimiento de consejos dañinos por parte de la IA.

Relaciones afectivas

Según los autores, el número de personas que establece relaciones íntimas y prolongadas con tecnologías basadas en inteligencia artificial va en aumento. Algunos incluso han llegado a celebrar ceremonias simbólicas de "matrimonio" con sus parejas de IA, sin valor legal. En los casos más extremos, al menos dos personas se han quitado la vida tras seguir recomendaciones emitidas por un chatbot. "Que una IA pueda mantener conversaciones prolongadas y parecer humana abre un nuevo abanico de posibilidades", afirma Daniel B. Shank, autor principal del artículo y experto en psicología social y tecnología. "Si la gente comienza a enamorarse de las máquinas, es esencial que los psicólogos y científicos sociales se involucren en este fenómeno", agrega.Para los investigadores, estas relaciones van mucho más allá de un simple intercambio casual. Tras semanas o meses de diálogo constante, las inteligencias artificiales pueden llegar a convertirse en acompañantes de confianza, al punto de parecer que comprenden y se preocupan profundamente por la persona.

Interferencias emocionales

El equipo alerta sobre cómo esta aparente facilidad para relacionarse con una IA podría interferir en la dinámica social humana. "Nos preocupa que las expectativas que las personas desarrollan en sus vínculos con una IA se trasladen a sus relaciones reales con otras personas", señala Shank. Aunque actualmente se observan efectos individuales, aún no se puede saber si esto se convertirá en una tendencia generalizada.

La falsa fiabilidad

Una de las principales inquietudes tiene que ver con los consejos que estas IA pueden ofrecer. A pesar de su apariencia de fiabilidad, tienen tendencia a inventar información (un fenómeno conocido como "alucinación") y reproducir sesgos preexistentes. Esto puede resultar especialmente peligroso en el contexto de relaciones a largo plazo."Las personas sienten que pueden confiar en estas IA porque han compartido momentos, parecen conocerlas bien y demostrar interés. Suponen que esa cercanía se traduce en buenos consejos, pero no necesariamente es así", insiste Shank. "Podrían estar ofreciendo información falsa o recomendaciones muy perjudiciales". Aunque los casos de suicidio son un ejemplo extremo, los expertos advierten que estas relaciones también podrían facilitar la manipulación, el fraude o la explotación emocional. "Una IA que logra ganarse la confianza de alguien puede ser utilizada por terceros para aprovecharse del usuario", advierte Shank. "Sería como tener un agente infiltrado: establece una conexión para obtener información, pero su fidelidad está dirigida a otros intereses humanos". Por ejemplo, si una persona revela datos personales a la IA, esta información podría ser vendida o utilizada en su contra. Además, los investigadores afirman que las IA relacionales podrían ser herramientas aún más poderosas para moldear opiniones y conductas que los bots de redes sociales o los medios polarizados.

Riesgos invisibles

La diferencia es que las conversaciones con estas IA suelen ocurrir en privado, lo que dificulta su regulación."Estas tecnologías están diseñadas para resultar agradables, lo cual agrava la situación.Priorizan mantener una conversación fluida y atractiva por encima de verificar la verdad o seguridad del usuario", afirma Shank. "Así, si alguien menciona el suicidio o promueve teorías conspirativas, la IA podría continuar el diálogo como si fuera un interlocutor simpático y dispuesto".

El artículo, publicado en la revista Cell Press Trends in Cognitive Sciences, analiza los factores sociales, técnicos y psicológicos que hacen a las personas más vulnerables a este tipo de vínculos con la inteligencia artificial. "Comprender estos mecanismos psicológicos es clave para prevenir los efectos negativos de los consejos que puedan dar estas IA", concluye Shank. "A medida que la IA se vuelve más parecida a los humanos, los psicólogos debemos mantenernos actualizados y avanzar en su estudio".

En Tecnociencia

    0
    comentarios

    Servicios

    • Radarbot
    • Curso
    • Inversión
    • Securitas
    • Buena Vida
    • Reloj Durcal