La revolución tecnológica ha traído consigo avances espectaculares en todos los ámbitos: desde la producción industrial hasta la medicina, pasando por el transporte y la vida cotidiana en el hogar. Sin embargo, esta automatización creciente también ha revelado un aspecto inquietante que la sociedad no puede ignorar: los robots pueden matar.
El primer caso documentado se remonta a 1979, cuando Robert Williams, un operario de la planta Ford en Míchigan, falleció tras ser golpeado por un brazo robótico. Este incidente marcó un antes y un después en la relación entre humanos y máquinas. Desde entonces, se han registrado cientos de muertes relacionadas con robots, la mayoría de ellas en entornos industriales, donde estos tienen grandes dimensiones y operan con elevada potencia, lo que conduce a graves lesiones si una persona se interpone en su camino. Por este motivo, los robots suelen estar metidos en jaulas dentro de las fábricas, una cuestión que poca gente conoce. Y no para que no escapen, pues la mayoría de ellos son estáticos y están atornillados al suelo, sino para que ningún despistado o impaciente entre en el "espacio vital" del robot.
Sin embargo, a los robots industriales "asesinos" se suman ahora los vehículos autónomos, como los coches sin conductor, que han causado ya varias víctimas por fallos en sensores o errores algorítmicos. Estos "robots sobre ruedas" presentan el riesgo añadido de operar en un entorno completamente desestructurado, como se denomina técnicamente a los lugares donde, en principio, puede ocurrir cualquier cosa, como las calles y carreteras. También ha habido incidentes en el ámbito sanitario, donde robots de asistencia médica, en principio diseñados para salvar vidas, han cometido errores quirúrgicos por problemas técnicos o fallos de programación. Por último, en el terreno militar, los drones y sistemas automatizados armados han provocado muertes, aunque en este caso muchas de ellas de manera deliberada, en zonas de conflicto.
Pero, ¿puede ser un robot realmente asesino? Al margen de los militares que hayan sido diseñados para tal fin, en la realidad, la responsabilidad no recae exclusivamente en la máquina. En la mayoría de los casos, los accidentes están vinculados a errores de diseño, mantenimiento deficiente, programación inadecuada o falta de formación por parte de los operadores humanos. No se trata, por tanto, de "robots asesinos" en el sentido popularizado por la ciencia ficción, sino de sistemas mal implementados y supervisados.
Las máquinas contagian sus errores a los humanos
Algunos estudios científicos han descrito un fenómeno llamado "contagio del error". Consiste en la reacción que provoca en muchas personas un fallo de la máquina. Aunque hay una definición técnica, se puede sintetizar en la típica reacción, ante un fallo o ineficacia de una máquina de: "párala que ya lo hago yo a mano". Esto, en entornos altamente automatizados, ha demostrado provocar más errores en conjunto.
Sin embargo, hoy se detecta una tendencia opuesta, que personalmente he denominado "supremacía social de la máquina": progresivamente, nos hemos acostumbrado a fallos en las aplicaciones, las redes y casi cualquier sistema digital. Esto lleva a muchas personas a asumirme irresponsables, ya que se da por hecho que la tecnología debe funcionar mejor que los seres humanos. "Y si la tecnología falla, imagínate yo…"
Esta "delegación moral y técnica de la responsabilidad" en la máquina es particularmente preocupante en el diseño y la implementación de sistemas de inteligencia artificial. Cuando quienes desarrollan estas tecnologías carecen de la competencia necesaria o no asumen las consecuencias de su trabajo, se corre el riesgo de crear herramientas potencialmente peligrosas, sin control ni supervisión adecuados. Así, cada vez se confía menos en las personas y más en las máquinas, y el ser humano está entrando en un círculo vicioso de inutilidad al cuadrado.
El reto está sobre la mesa. A medida que los robots continúan integrándose en la vida cotidiana, la humanidad debe garantizar que estos avances tecnológicos se utilicen con sabiduría, supervisión y una profunda reflexión ética. Porque, aunque las máquinas no tienen intención, sus actos pueden tener graves consecuencias. Y esas consecuencias deben ser asumidas por quienes las diseñan, programan y autorizan su uso, que al final, son personas, por mucho que las doctrinas actuales quieran despersonalizarlo todo.
Antonio Flores Galea tiene dos ingenierías superiores de Telecomunicación y en Electrónica por la Universidad de Sevilla y es MBA por la escuela de negocios IESE. Es profesor de Inteligencia Artificial y Big Data en la Universidad Francisco de Vitoria.