Singularidad tecnológica: ¿tomarán los robots el poder?

20 Jun Singularidad tecnológica: ¿tomarán los robots el poder?

Se acerca el día, solo falta una década… Según algunos expertos, en diez años los robots serán más inteligentes que las personas, y entre muchos ha surgido el temor o la duda de si podrán tomar el poder y gobernarnos a las personas. 

En realidad, aun no está claro en qué medida los robots serán capaces de suplantar la identidad de una persona con su inteligencia. Pero en 2014 Ray Kurzweil predijo que en 2029 los robots serían más inteligentes que las personas. Y no se trata de un adivino con su bola de cristal, se trata del director de ingeniería de Google, y está considerado como un visionario entre los expertos en tecnología. Kurzweil es reconocido, entre otros motivos, por haber popularizado el concepto de singularidad tecnológica.

En ActionsDATA somos apasionados de la tecnología y queremos darte las claves para entender qué es la singularidad tecnológica, así como sus implicaciones futuras.

¿Qué es la singularidad tecnológica? 

Consiste en la idea de que la historia humana se está acercando a una “singularidad”, según la cual los humanos algún día serán superados por máquinas artificialmente inteligentes o inteligencia biológica cognitivamente mejorada, o ambas, según la definición del MIT 

Este concepto, que surgió en un principio como mera ciencia ficción, es actualmente un debate serio entre expertos en tecnología, y concretamente en inteligencia artificial (IA). Y, de hecho, Google ha creado su propia universidad para investigar y formar sobre estos temas, la Singularity University 

Aunque Kurzweil prevé este cambio en tan solo una década, otros teóricos de la singularidad predicen que si el campo de la IA continúa desarrollándose a su ritmo actual, la singularidad podría producirse a mediados del presente siglo.  

La ley de Moore y el poder de los robots 

Para entender en qué se basan estas teorías sobre la singularidad tecnológica y el relevo de poder de los humanos a los robots, hay que conocer la ley de Moore. Esta expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador 

Basándose en este principio, Kurzweil, prevé que: 

  • En 2023, un ordenador tendrá la capacidad de procesamiento de un cerebro humano. 
  • Para el 2030, se produciría la singularidad y podría surgir una IA fuera de control, es decir, una IA capaz de diseñar IAs aún mejores. Y éstas a su vez, otras mejores.
  • A partir de 2050, un ordenador tendría el poder de procesamiento del conjunto de todos los cerebros humanos. 

¿Tomarán los robots el poder? 

La ciencia ficción, a través de grandes películas y novelas, ha promovido la idea de que un día los robots serán más inteligentes que el ser humano y podrán tomar decisiones autónomas que les lleven a enfrentarse a las personas, tomar el poder y someternos.  

Y, aunque el debate está abierto, son numerosos los científicos e ingenieros que rechazan de manera rotunda esta idea. Por ejemplo, Andrew Ng, jefe del área científica del gigante chino de Internet Baidu y académico de Standford, ha asegurado que “temer un aumento de robots asesinos es como preocuparse por la superpoblación en Marte”. 

En esto coincide Kurzweil, quien ha explicado su postura en varias entrevistas y foros. El ingeniero de Google opina que “no es que la IA nos vaya a desplazar. Nos va a mejorar. Ya lo hace“. Sin embargo afirma que la IA supone riesgos, al igual que otras tecnologías: “La tecnología siempre ha sido una espada de doble filo. El fuego nos ha mantenido calientes, ha cocinado nuestra comida… y también ha quemado nuestras casas“, comentó en un debate del Consejo de Relaciones Exteriores, en Washington.

Por otro lado, hay personalidades como Stephen Hawking o Elon Musk, que llevan tiempo advirtiendo de los peligros de una IA fuera de control.

¿Existen otros riesgos ligados a la IA? 

Independientemente de qué suceda en el futuro con la singularidad, es incuestionable que nuestra creciente dependencia de la IA conlleva algunos riesgos reales, que deben analizarse y abordarse.  

Por ejemplo, a medida que los sistemas inteligentes se involucran en cada vez más decisiones de ámbitos que van desde la asistencia sanitaria hasta la financiación o la justicia penal, existe el peligro de que partes importantes de nuestras vidas se estén realizando sin un control suficiente. Por eso es fundamental apostar por un desarrollo tecnológico responsable y profesional.  

Al margen de si creemos que la singularidad tendrá lugar o no, la mera posibilidad de que llegue a suceder plantea muchas preocupaciones e incertidumbres acerca del riesgo de seguridad para el futuro de la humanidad. Esto nos obliga a abrir un debate sobre hacia dónde queremos llevar la tecnología y a la propia especie. 

Te recomendamos:

Cómo los datos y la Inteligencia Artificial combaten el cambio climático

Lecciones sobre lo que puede salir mal en IA: Tay, el bot que idolatraba a Hitler

 

No hay comentarios

Escribe tu comentario