
Acertadamente o no, se espera que la Inteligencia Artificial motive un nuevo salto tecnológico que impulse el desarrollo de la humanidad. Así, en los mercados financieros las empresas tecnológicas relacionadas con la IA han supuesto una interesante oportunidad de inversión para muchos en los últimos tiempos. No obstante, el desarrollo de una tecnología de estas características también implica algunos riesgos que deben ser evaluados.
En todo caso, los potenciales riesgos que puedan derivarse del desarrollo de la IA no han de ser excusa para implantar políticas liberticidas y que, al mismo tiempo, pongan en peligro la prosperidad económica de los países. Sin embargo, en una entrevista en Financial Times, el científico informático Geoffrey Hinton, Premio Nobel de Física en 2024 y a quien el articulista describe como "un socialista cuyos logros solo fueron reconocidos en la madurez", ha llamado a la regulación de esta tecnología por los Gobiernos. De este modo, en la entrevista demuestra un profundo desconocimiento de la economía y la filosofía.
¿Apocalipsis social?
Este científico es considerado uno de los que más han hecho por el desarrollo de la IA. Como se recuerda en la propia pieza del Financial Times, "Hinton ganó el Premio Nobel por descubrimientos e invenciones fundamentales a mediados de la década de 1980 que permitieron el aprendizaje automático con redes neuronales artificiales", recordando que "este enfoque, basado en gran medida en el funcionamiento del cerebro humano, sentó las bases de los potentes sistemas de IA que tenemos hoy a nuestro alcance".
Lo cierto es que este científico se muestra especialmente preocupado por el futuro que le espera a la humanidad en un mundo en el que sean las empresas privadas las que desarrollen esta tecnología. De hecho, con respecto al futuro que dibujan algunos de los ejecutivos de la empresas tecnológicas, que suponen que la IA podría ayudar a resolver algunos de los problemas sociales más importantes, como el hambre, la pobreza o las enfermedades, Hinton denuncia que "lo que realmente va a pasar es que los ricos van a usar la IA para reemplazar a los trabajadores".
Es más, Hinton sostiene que "esto va a generar un desempleo masivo y un aumento enorme de las ganancias". De hecho, asegura que el este modelo económico y empresarial "hará que unos pocos sean mucho más ricos y la mayoría, más pobres". Y es importante destacar que para el científico esto no se debe a la tecnología, sino al propio sistema económico. "Eso no es culpa de la IA, es culpa del sistema capitalista", asevera en este sentido. De hecho, preguntado por el Financial Times acerca de las propuestas de algunos ejecutivos de las grandes tecnológicas –como Sam Altman– de desarrollar un modelo basado en la renta básica universal, denuncia que iniciativas como esa "no abordarán la dignidad humana", puesto que, considera, las personas se valoran por su trabajo. Ahora bien, lo cierto es que la implementación de la IA en los sistemas productivos es lo que podría impulsar la productividad de las economías y, con ello, el bienestar de la población.
Así las cosas, Hinton ha abogado por una mayor intervención por parte de los Gobiernos en esta materia. De hecho, en el artículo se subraya que el científico "no confía en la intervención de los gobiernos occidentales y critica la falta de interés de la administración estadounidense en regular la IA". Es decir, no confía en los Estados occidentales porque, a su juicio, no están interesados en intervenir sobre los usos de la IA. En este sentido, el entrevistador explica que para Hinton el país que sí se toma en serio este asunto es China. Así, cuestionado sobre si podemos confiar en que el gigante asiático garantizará los "intereses humanos", Hinton responde que "esa es una cuestión secundaria, incidiendo en que "la supervivencia de la humanidad es más importante que su amabilidad". ¡O sea, que la supervivencia de la humanidad depende de China!
Algunos errores filosóficos
Asimismo, las opiniones de Hinton vienen marcadas por una concepción muy particular del hombre y la tecnología. En primer lugar, resulta llamativo que el científico equipare la inteligencia humana con las capacidades de procesamiento de información propia de las máquinas. Dice en la entrevista que "según cualquier definición de inteligencia, la IA es inteligente", añadiendo que estas máquinas "si les hablas y les haces preguntas, lo entienden". De hecho, detalla que "en la comunidad técnica hay muy pocas dudas de que estos dispositivos se volverán más inteligentes".
Es posible que sentencias como esta deriven de una concepción materialista del mundo, puesto que se reduce la inteligencia simplemente al procesamiento de información, obviando la autoconciencia como un elemento diferenciador del ser humano. De hecho, cabe recordar que, etimológicamente, la palabra "inteligencia" deriva de la expresión latina "intus legere", que significa "leer dentro", para lo cual se requiere de una comprensión mucho más profunda que el simple procesamiento de datos.
Del mismo modo, este materialismo es lo que le lleva a afirmar que las propuestas realizadas para resolver los problemas causados por la IA a nivel social no aportarán ninguna solución en tanto que, considera, las personas se valoran por su trabajo. Es esta misma idea, según la cual el hombre no es otra cosa sino un ser capaz de trabajar –por lo que su esencia radicaría, precisamente, en esa capacidad para el trabajo–, la que llevó a Marx a concluir que el trabajo por cuenta ajena era alienante.


