"Tu cara ya entrena una IA y tú ni lo sabes": así están usando tus datos sin permiso
La ley europea de inteligencia artificial pone el foco en la protección de datos. ya que podrías estar compartiendo información sensible.
La inteligencia artificial ya no es solo una herramienta de productividad o creatividad: también es una fuente creciente de riesgos legales, éticos y sociales. Mientras millones de usuarios interactúan cada día con modelos como ChatGPT, Gemini o Copilot, pocos saben qué ocurre realmente con los datos que comparten... y menos aún, si esos usos son legales.
Para arrojar algo de luz sobre este nuevo escenario, hablamos con Carlota Bravo-Ferrer Álvarez-Sala, abogada especializada en derecho digital y protección de datos en CECA MAGÁN Abogados, que nos alerta: "Estamos ante una revolución tecnológica que ha ido por delante del derecho, pero que ahora empieza a alcanzarla con fuerza".
La IA Act: Europa toma la delantera en regulación tecnológica
La Ley Europea de Inteligencia Artificial (AI Act) marca un antes y un después. "Europa vuelve a ser pionera, como lo fue con el RGPD. Ya hay 22 autoridades de supervisión del mercado, grupos de trabajo por sectores y se ha creado la AESIA (Agencia Española de Supervisión de la IA)", explica Bravo-Ferrer.
A esto se suma un anteproyecto de ley nacional que completará el marco regulatorio. Las sanciones pueden alcanzar cifras millonarias para empresas que no cumplan con los requisitos legales relacionados con la transparencia, el uso de datos o los modelos de IA que desarrollan o integran.
Riesgos clave: sesgos, privacidad y decisiones automatizadas
Los desafíos jurídicos son múltiples. Entre ellos, la abogada destaca la tensión entre el principio de minimización de datos, pilar del RGPD, y la necesidad de alimentar los modelos con grandes volúmenes de datos.
"La IA necesita datos masivos para entrenarse bien y evitar sesgos. Pero eso choca directamente con las leyes de privacidad. ¿Cómo se informa adecuadamente al usuario? ¿Cómo se recogen esos datos de forma legítima?", se pregunta.
Además, pone el foco en la opacidad de muchos sistemas automatizados. "Si una administración pública usa IA para decidir quién recibe un bono social, ese modelo debe ser transparente", advierte. De hecho, una sentencia reciente ha obligado a una entidad pública a explicar cómo funcionaba su modelo de decisión.
El uso descontrolado de IA en empresas: un riesgo real
Bravo-Ferrer alerta del uso cada vez más frecuente, y a menudo negligente, de herramientas de IA en entornos corporativos. Desde departamentos de RRHH que usan Gemini para evaluar CVs, hasta profesores que corrigen con ChatGPT sin supervisión, o administrativos que suben archivos con datos confidenciales sin protección adecuada.
"Muchas empresas activan Copilot sin revisar la gobernanza de datos, sin formar a sus equipos, sin una política clara. Y eso las expone legalmente", señala.
La solución, según la experta, pasa por la creación de equipos multidisciplinares donde IT, legal, negocio y seguridad trabajen de forma coordinada. "Un proyecto sin base legal sólida está condenado al fracaso", resume.
El problema no solo afecta a las empresas. En el plano personal, el desconocimiento es igual de peligroso. Bravo-Ferrer recuerda casos de deepfakes creados con imágenes compartidas sin consentimiento o usuarios que suben datos de terceros a ChatGPT sin saber que están vulnerando su privacidad.
"Una foto tuya convertida en dibujo por una app puede acabar entrenando a una IA sin que tú lo sepas. Y eso ya está pasando", afirma.
El "escudo" frente a los abusos: formación, gobernanza y conciencia digital
¿Qué pueden hacer ciudadanos y empresas? Para Carlota Bravo-Ferrer, la alfabetización digital es clave. "Hay que formar a los usuarios, a los empleados y a los responsables de proyectos. Solo siendo conscientes de los riesgos evitaremos los errores".
El "escudo" se construye, según ella, en tres capas:
-
Conocimiento del marco legal
-
Gobernanza de los datos y de los modelos
-
Una cultura de cumplimiento transversal
Porque en una era en la que los datos valen más que el oro, la ignorancia puede salir cara. "El problema no es solo lo que compartimos. Es que cada clic, cada píxel que pulsamos, es un dato que alimenta un modelo que tomará decisiones por nosotros", concluye.
Lo más popular
-
Peste porcina: un laboratorio de la Generalidad en obras y el odio a los españoles del jefe de biocontención -
Vídeo: Así alertaba Federico Jiménez Losantos en 2022 de la relación de Begoña Gómez y Forestalia -
Apoteosis de Ayuso contra Espinar: "Le pusieron los señoros de La Moncloa. Soy socialista porque soy feminista, ¡anda ya!" -
Organiza, protege y embellece tu hogar con los mejores zapateros ¡adiós al desorden! -
Dimite Javier Izquierdo, miembro de la Ejecutiva del PSOE, tras nuevas acusaciones de acoso sexual
Ver los comentarios Ocultar los comentarios