Los científicos de la prestigiosa Sociedad Max Planck en Europa dicen que, con nuestra tecnología actual, la humanidad no tiene ninguna posibilidad de controlar una inteligencia artificial superinteligente capaz de salvar o destruir a la humanidad.
El artículo del instituto de investigación, publicado len el Journal of Artificial Intelligence Research, se centra en la capacidad de reacción de la humanidad hacia una hipotética IA al estilo Skynet que decide acabar con la humanidad.
Mitigar la amenaza de la IA dañina
Si una inteligencia artificial superinteligente del futuro decidiera, como ejemplo, que la forma más eficiente de acabar con el sufrimiento humano sería simplemente acabar con la humanidad, ¿qué haríamos para detenerlo?
Esa es la pregunta planteada por la gente de Max Planck Society en su investigación publicada recientemente. La respuesta: con la tecnología actual, tendríamos que quedarnos al margen y ver cómo nos destruyen.
Es por eso que los investigadores proponen desarrollar lo que ellos denominan un «algoritmo de contención» que simula el comportamiento peligroso de una IA superinteligente y evita que haga algo dañino.

‘Suena a ciencia ficción’
Los investigadores de la Sociedad Max Planck advierten que la IA capaz de tomar decisiones impactantes para la humanidad está a la vuelta de la esquina.
Seguir leyendo La inteligencia artificial superinteligente no se puede controlar, advierte un informe