Menú

ChatGPT en el punto de mira: un hombre denuncia a OpenAI por acusarlo, falsamente, de asesinar a sus hijos

Un hombre denuncia a ChatGPT tras preguntarle su identidad y ser identificado erróneamente como un asesino condenado a 21 años de cárcel.

Un hombre denuncia a ChatGPT tras preguntarle su identidad y ser identificado erróneamente como un asesino condenado a 21 años de cárcel.
ChatGPT | Alamy

ChatGPT se ha convertido en una herramienta de inteligencia artificial indispensable en el día a día. La plataforma de OpenAI, la empresa estadounidense que está detrás, es un buen recurso para agilizar diferentes trabajos, aunque para algunos también puede resultar una amenaza. Este es el caso de Arve Hjalmar Holmen, un hombre de Noruega que acaba de denunciar al chatbot por acusarle de asesinato.

Los hechos se remontan a agosto de 2024, cuando Hjalmar Holmen, curioso por saber que sabía la inteligencia artificial sobre su persona, le pregunto quién era él. Lo que comenzó como una pregunta tonta y sin mayor importancia, ha terminado con una denuncia.

ChatGPT respondió afirmando que era un individuo noruego conocido por un evento trágico. La plataforma de inteligencia artificial declaraba que Arve Hjalmar Holmen había asesinado a sus dos hijos y había intentado matar a un tercero, por lo que había sido condenado a 21 años de prisión. De toda esta información, el chatbot solo había acertado tres puntos: el sexo de sus hijos, el número y el nombre de su ciudad natal.

chatgpt-denunciado-por-asesinato-captura-210325.jpg
Captura de pantalla de la pregunta y la respuesta de ChatGPT

Cuando el noruego se percató de la respuesta del chatbot, se preocupó enormemente, puesto que esta difamación podía dañar su imagen y ChatGPT podía dar la misma respuesta a otros usuarios. Por ello, ayer jueves 20 de marzo, Noyb, el grupo de defensa de la privacidad con sede en Austria, anunciaba su denuncia contra OpenAI.

El denunciante, Arve Hjalmar Holmen, ha expresado su preocupación por la situación en Noyb: "Algunos piensan que no hay humo sin fuego. Lo que más me asusta es que alguien lea este informe y crea que es cierto".

"El Reglamento General de Protección de Datos es claro. Los datos personales deben ser precisos. Y si no lo son, los usuarios tienen derecho a modificarlos para que reflejen la verdad. Mostrar a los usuarios de ChatGPT una pequeña advertencia de que el chatbot puede cometer errores no es suficiente. No se puede simplemente difundir información falsa y, al final, añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso", ha alegado Joakim Söderberg, abogado experto en protección de datos de Noyb.

A pesar de que el grupo OpenAI ha afirmado que, desde el incidente, ha actualizado sus modelos con el objetivo de buscar información más adecuada y precisa cuando se pregunte sobre alguien, los datos podrían seguir formando parte del sistema. Esto se debe a que, por defecto, ChatGPT incorpora los datos del usuario en el sistema para su entrenamiento. Esto implica que el usuario no puede tener la certeza absoluta de que esta información se elimine de forma completa, a menos que se reentrene todo el modelo de IA.

Alucinaciones del ChatGPT

A pesar de la confianza depositada en los chatbots de inteligencia artificial, en muchas ocasiones, estas plataformas cometen alucinaciones, inventándose mentiras inocentes o, como en este caso, acusaciones difamatorias.

Existen diferentes informes sobre escándalos de acoso sexual inventados, falsas acusaciones de soborno y presunto abuso de menores por las que la empresa estadounidense de inteligencia artificial ya ha sido denunciada con anterioridad. Ante estas acusaciones, OpenAI se defiende alegando que ChatGPT puede producir respuestas falsas.

Temas

En Tecnociencia

    0
    comentarios

    Servicios

    • Radarbot
    • Curso
    • Inversión
    • Securitas
    • Buena Vida