La singularidad tecnológica es una hipótesis que establece que llegará un momento en el que la tecnología avance tan rápido que las máquinas serán capaces de mejorarse a sí mismas y de forma recurrente, dando lugar a superordenadores con una capacidad intelectual muy superior a la humana, y lo más chocante, fuera de nuestro control. Este concepto ha sido defendido principalmente por el ingeniero de Google Ray Kurzweil, aunque el primero que asoció el término físico singularidad a la explosión de la inteligencia artificial fue el novelista de ciencia ficción Vernor Vinge en la década de 1980.
Según José Manuel Sanjurjo --vicealmirante retirado y miembro de la Real Academia de Ingeniería--, la idea de la singularidad tecnológica parte de la famosa Ley de Moore, que establece que la capacidad de computación crece de forma exponencial cada dos años y, además, la tecnología es cada vez más barata. A eso se suma el crecimiento exponencial del conocimiento.
Ray Kurzweil sitúa en el año 2045 el punto de inflexión en el que la inteligencia artificial superará a la humana. Entretanto, algunos hitos como el test de Turing comienzan a ser superados. Y en 2016, AlphaGo, un algoritmo desarrollado por Google DeepMind, consiguió ganar a varios jugadores profesionales de GO, una especie de ajedrez oriental de gran complejidad. Un año después, una versión mejorada capaz de aprender por sí misma logró vencer a su antecesor. El hecho de que exista este tipo de máquinas es un ejemplo de que ya nos encontramos en la carrera hacia la singularidad. José Manuel Sanjurjo advierte que no solo tendremos que aprender a convivir con ellas sino establecer un marco legal y ético que permita controlar y regular el uso de estas tecnologías. La sociedad -advierte el académico de la RAI- no puede permitirse una versión tecnológica del monstruo de Frankenstein.
Esto es ingeniería
Inteligencia artificial y punto de singularidad
22/05/2020
05:49