
No hay prácticamente conversación en la que, en los últimos tiempos, no aparezca el asunto de la Inteligencia Artificial. Y no solo en los ámbitos profesionales, sino también, y cada vez más, en los personales. Como en cualquier avance tecnológico, y este evidentemente es uno de los más relevantes de la historia, existen a su alrededor un sinfín de bulos, peligros y riesgos que conviene conocer para poder hacer un uso tremendamente ventajoso – pero también responsable- de las enormes posibilidades que la IA nos ofrece. En las siguientes líneas, y a través de las palabras y los consejos que José Manuel de la Chica, director del Laboratorio de Inteligencia Artificial de Banco Santander, ofrece en el podcast 'Santander te cuenta', hacemos un repaso de todo ello.
Comenzamos por algunos bulos, mitos y falsas creencias que, aunque puedan tener ciertas bases reales, conviene desmontar cuanto antes. El primero es que la IA "nos va a quitar el trabajo". La respuesta es, evidentemente, que no. Se perderán algunas ocupaciones laborales, como en su día dejó de haber, por ejemplo, ascensoristas, pero la Inteligencia Artificial lo que hará será transformar determinadas tareas que ya no tiene sentido que las haga una persona. En algunos casos que se citan habitualmente, como médicos, psicólogos o profesores, la IA les va a ofrecer "superpoderes" y les puede ayudar a ahorrar tiempo, especialmente, en farragosas labores burocráticas, para poder dedicarlo a sus pacientes y a sus alumnos. Pero, hoy por hoy, la IA no puede sustituir a estos y otros profesionales.
Casi la mitad de las informaciones hechas con IA son erróneas
Uno de los peligros que presenta la Inteligencia Artificial es la manipulación de la información y la divulgación de las llamadas fake news. De hecho, una amplia investigación realizada por la European Broadcasting Union (EBU) y la BBC revela que los principales asistentes de IA -ChatGPT, Copilot, Gemini y Perplexity- tergiversan de manera habitual el contenido de las noticias, con independencia del idioma, territorio o plataforma de IA utilizada.
En esta investigación se analizaron más de 3.000 respuestas dadas por esos asistentes tecnológicos y las conclusiones fueron, entre otras, que el 45% de las respuestas relacionadas con noticias tuvieron por lo menos un problema significativo y que el 31% mostró serios problemas con las fuentes: falta de atribución, atribución engañosa o atribución incorrecta.
En realidad, según apunta José Manuel de la Chica, "no es exacto" hablar de manipulación y sí que habría que hacerlo más de "inexactitudes y errores"; y recuerda que la Inteligencia Artificial es "probabilística" y, por ese motivo no hay que dar por buena toda la información que llega a través de ella. Para asegurarse de su veracidad, el experto del Santander aporta tres pasos: en primer lugar, asegurarse de que, junto a la información aportada por la IA, figura su fuente de origen (si no, pedirla siempre); después, ir a ese origen y chequearlo y, por último, contrastar esa misma información en otras fuentes.
La importancia de recordar siempre que estamos hablando con máquinas
Respecto a los aspectos positivos del empleo de la Inteligencia Artificial, José Manuel de la Chica destaca que se trata de una herramienta "de productividad", pero que más allá de eso, nos proporciona la capacidad de aprender "de manera personalizada, a medida de lo que necesitamos". "Hay que usarla para fortalecer nuestras propias capacidades intelectuales, pero siempre", recalca De la Chica, "recordando que estamos hablando de personas hablando con máquinas".
"A día de hoy, una IA", insiste el director del Laboratorio, "nunca va a ser capaz de hacer lo que hace un cerebro humano. No va a poder ser creativa y analítica al mismo tiempo, ni ser empática de verdad".
Hace escasas semanas, el propio CEO de OpenAI, Sam Altman, alertaba de los peligros que se ciernen sobre los modelos de Inteligencia Artificial, poniendo el foco en la seguridad informática y, especialmente, en la salud mental. En este segundo aspecto, el especialista de Banco Santander, recuerda que "la IA siempre tiende a agradarnos, nunca nos va a llevar la contraria y está preparada para empatizar con nosotros. Al final es un producto y lo que busca es una satisfacción en el usuario y muchos creen haber encontrado en la IA a esa persona que les entiende y con la que están construyendo una relación". Pero NO es real, "ya que es una máquina, que, claro, ni siente ni tiene consciencia". Ciertas señales, como la soledad, el aislamiento, la dependencia y "esa conexión emocional con la IA" son señales de alerta que debemos tener en cuenta a la hora de saber cuándo ese uso de la Inteligencia Artificial se está convirtiendo en un problema. Y, para solucionarlo, están los correspondientes profesionales.
Otro de los asuntos relevantes es el uso que están haciendo los más jóvenes de la Inteligencia Artificial. En este sentido, la investigación Inserción laboral juvenil: aspiraciones, preocupaciones y desafíos, elaborada por Fundación Pfizer y Fad Juventud, revela que casi la mitad de las personas jóvenes de 15 a 29 años (46,7%) afirma no haber utilizado nunca una herramienta de IA, lo que contrasta con la centralidad que estas tecnologías están adquiriendo en el mercado de trabajo y en múltiples procesos formativos y profesionales. Eso sí, otro estudio advierte que el 15% de los jóvenes ya está accediendo a la información a través de la Inteligencia Artificial.
Si la IA piensa por nosotros, el cerebro se atrofia
Y es que, en el aspecto educativo, la utilización que ya están haciendo muchos estudiantes de la Inteligencia Artificial no va a traer demasiadas cosas buenas en el futuro si no saben utilizarla. "Si la IA piensa por nosotros, el cerebro se atrofia, como ocurre con cualquier otro músculo del cuerpo cuando no lo ejercitamos". En este sentido, De la Chica apuesta por "plantear a los alumnos formas de llevarle la contraria a la IA para que se den cuenta de que la información que aporta es volátil" y "enseñarles a utilizar la Inteligencia Artificial como complemento de su actividad, nunca como el eje de su aprendizaje". Primero hay que pensar por nosotros mismos y después mejorar y depurarlo con la IA.
Además, el especialista de Banco Santander insiste en la necesidad de evitar que los más pequeños suban documentos, datos y todo tipo de información a las diferentes herramientas de IA que existen; apuesta porque las regulaciones han de ir un paso más allá para que se vayan adaptando a las nuevas formas en que se va desarrollando la propia Inteligencia Artificial y, ante la pregunta de si la IA lo sabe todo, ofrece un mensaje de tranquilidad: "Nunca hay que olvidar que la IA solo sabe aquello que un humano ha sabido antes".

