La inteligencia artificial ya forma parte de nuestra vida con la misma discreción con la que el asfalto ha transformado nuestros hábitos y dónde vivimos. Los sistemas de IA recomiendan, ordenan, reordenan, silencian y priorizan lo que vemos. No nos dictan qué hacer, pero moldean sutilmente el entorno que nos rodea y el horizonte de lo posible.
La pregunta incómoda es si esa arquitectura, combinada con nuestra fragilidad humana, puede empujar a algunas personas hacia la autolesión y, en casos extremos, hacia el suicidio. La respuesta de quienes conocemos cómo funciona la IA por dentro no deja lugar a dudas: sí, puede aumentar el riesgo, sobre todo cuando confluyen el diseño adictivo de aplicaciones, una moderación de contenidos imperfecta y la soledad, fruto de la individualidad forzada a la que la maquinaria consumista global nos somete progresivamente (dos personas separadas e independientes necesitan muchos más recursos que colaborando juntas).
Espirales de recomendación
Se puede dar, por ejemplo, que alguien consulte contenidos sobre insomnio, dietas extremas o desesperanza y la máquina interprete que esa es su preferencia, cuando solo está curioseando o buscando remedios para conseguir justo lo contrario: poder dormir, hacer una dieta sana o mejorar su estado de ánimo. Pero la IA le suministra más de lo mismo.
No hay maldad, pues la máquina no "maquina", pero sí tiene una "función objetivo", consistente en que todos pasemos cuantas más horas enganchados, mejor, sin tener en cuenta efectos secundarios. Es el opio del siglo XXI. El resultado es lo que se conoce como "espiral de recomendación": cada clic estrecha el embudo, cada vídeo que uno ve sugiere el siguiente y así, una espiral de recomendación puede degenerar en una "espiral de la muerte", donde cada madrugada la persona reduce la distancia entre "solo miro un rato" y "no hay salida".
Cámaras de eco y adicción
Fruto de estas espirales de recomendación son las llamadas "cámaras de eco", consistentes en la capacidad de las redes sociales y proveedores de contenidos, en general, de personalizar lo que ofrece al usuario hasta tal punto que, realmente, los contenidos que le muestra son un "eco" de su forma de pensar. Así, si uno está convencido de algo, al ver uno y otro post, y una noticia más que ratifica esa cuestión, piensa "¿lo ves? Es así, no cabe duda", aunque realmente los algoritmos le están ocultando los contenidos contrarios, con el fin de que siga atrapado en la red.
Lo que en economía se denomina "incentivos perversos" aquí se traduce en que cuanto peor se siente alguien, más tiempo permanece; cuanto más permanece, más rentable resulta. Alguien en el Silicon Valley se quedó con la famosa frase de Rajoy de "cuanto peor, mejor y cuanto mejor, peor; para mí, mejor".
Chatbots y antropomorfismo
El segundo mecanismo que puede llevarnos a la autodestrucción personal es el antropomorfismo de los chatbots. Conversar con una interfaz que responde con cortesía estadística puede aliviar durante un rato, pero no sustituye a un profesional. Cuando un modelo no sabe detectar lenguaje de crisis, improvisa. Cuando improvisa, alucina. Y cuando alucina, puede ofrecer consejos erróneos con apariencia de certeza absoluta.
Un chatbot de IA no es un amigo, no es un terapeuta, no es un confesor. No está diseñado para eso. Confundirse con esto por la similitud de su conversación con la de una persona es peligroso y a ese peligro contribuye cómo están diseñados, simulando empatía y cercanía, con el único fin de… mantenernos enganchados más tiempo.
Ciberacoso y moderación fallida
La tercera cuestión es el ciberacoso. Antes había dos o tres hostigadores en el trabajo, en el bloque o en el colegio. Ahora, gracias a la automatización y la capacidad de simular el comportamiento de la IA, los ataques pueden industrializarse. Para un adolescente o para alguien que ya carga con una depresión, esa metralla digital puede resultar devastadora. Los protocolos de filtrado de contenidos existen, pero la ventana de exposición, aunque corta, puede causar daños graves. Con bastante frecuencia, el daño ya está hecho cuando por fin llega la acción oportuna para retirar los contenidos o cerrar la cuenta de un ciberacosador.
Y respecto de los fallos de moderación, resulta inevitable sufrirlos en sistemas a escala: falsos negativos que dejan pasar contenido nocivo y falsos positivos que silencian foros de ayuda legítimos. La tecnología no es maligna; es indiferente. Su brújula apunta hacia la métrica que le hayan marcado. Si quien la controla es un cretino o un incompetente, hacia allá que iremos.
Higiene digital y regulaciones
¿Qué podemos hacer ante este panorama? A nivel individual, lo que se llama "higiene digital": ajustar las recomendaciones, silenciar determinadas cuentas o contenidos, limitar las notificaciones, establecer horarios y pausas, y abandonar de inmediato conversaciones con chatbots que respondan de forma insegura o extraña. Reportar con capturas, pedir ayuda profesional, hablar con alguien de confianza.
A nivel de plataformas, lo obvio que aún no es universal: protocolos de crisis por defecto, filtros robustos para microsegmentación sensible, auditorías independientes que aporten transparencia sobre los métodos e intenciones de los proveedores de sistemas de IA y redes sociales, y controles parentales sencillos de activar.
A nivel regulatorio, menos retórica y más verificaciones: transparencia operativa, evaluación de riesgos y sanciones que no salgan a cuenta.
Una reflexión final
Y una reflexión final: si controlas el consumo de alcohol a determinadas horas del día o días de la semana para evitar sus efectos adversos, ¿por qué con el consumo de redes sociales y de chatbots inteligentes nadie se controla? ¿De verdad queremos ser una sociedad de drogadictos? Y cuando caemos en las garras de la IA y las redes sociales, acabando en ocasiones en el suicidio, ni siquiera una sola voz se alza para denunciar esta zombificación a la que estamos siendo sometidos. La culpa es, siempre, de la IA, no nuestra.
Conviene también repartir responsabilidades con precisión. La persona no es culpable por tener una depresión, la plataforma no es un ente malvado por definir una métrica, y el regulador no es omnipotente. Culpa, tal vez, sea una palabra inútil. Lo que sí hay son decisiones. Decisiones de diseño que premian la adicción. Decisiones normativas que llegan tarde. Decisiones privadas sobre cómo, cuándo y para qué nos conectamos. Si el entorno digital actúa como una pendiente resbaladiza, entonces todos deberíamos ir prevenidos, con botas antideslizantes y controlando cada movimiento.



