Manuel Cebrian, coautor de un estudio que señala los potenciales peligros que encierra el desarrollar máquinas superinteligentes, uno de ellos el no poder ser controladas en un futuro.
Estos investigadores internacionales realizaron una serie de cálculos teóricos para analizar las posibilidades de mantener bajo control una máquina superinteligente. Se concluyó que es fundamentalmente imposible el controlar este tipo de tecnología.
Cebrian explicó: “Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron”. Y añade que esto no es bueno, como algunos podrían pensar: “Podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad”.
Los científicos expusieron en la revista Journal of Artificial Intelligence Research, que actualmente hay dos maneras de mantener la Inteligencia Artificial bajo control. La primera forma es aislarla de Internet y otros dispositivos para evitar que tenga contacto con el mundo exterior.
La otra forma es tener un algoritmo de contención, el cual asegure que estas máquinas superinteligentes no dañen a personas bajo ninguna circunstancia. Lamentablemente, actualmente este algoritmo no puede ser construido.
Científicos no están seguros si este algoritmo realmente sea capaz de detener a máquinas con alta Inteligencia Artificial.
En caso hipotético de ocurrir una insurrección de la AI, Iyad Rahwan, otro autor del estudio, explica: “Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la AI dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”.
Fuente: RT