Tecnología

Los desafíos éticos de la inteligencia artificial

Cuando elegimos un billete de avión, en la consulta del médico, al elegir qué libro vamos a leer o cuando realizamos una transacción bancaria, en todas estas acciones está presente la inteligencia artificial (IA).

Esta tecnología está transformando el mundo desde ámbitos muy diversos: desde la optimización de la logística hasta la detección de fraudes fiscales, pasando por la investigación, la traducción e incluso la creación artística. Y es precisamente esta omnipresencia la que genera recelo entre muchas personas.

¡Sobran distopías e historias de horror acerca de la IA! En esto han contribuido mucho el cine o la literatura, con obras como Odisea 2001 o 1984, que se han quedado en el imaginario colectivo y nos mantienen en alerta sobre cuándo las máquinas tomarán el poder.

En ActionsDATA estamos convencidos de que la IA tiene un potencial muy alto de mejorar la calidad de vida de las personas. Por eso, en este post hemos apostado por analizar cuáles son los desafíos éticos a los que nos enfrentamos cuando hablamos de IA y cuál es su dimensión real.

¿Quién tendrá el control?

Aunque la idea de los robots tomando el poder del Planeta es más bien de película, sí es cierto que la IA es tan disruptiva que está generando una gran preocupación sobre cómo se regulará y determinará el modo en el que estos sistemas deben tomar decisiones.

Uno de los principales problemas a los que nos enfrentamos es la falta de transparencia de las compañías al dar a conocer los códigos éticos sobre los que deben operar sus dispositivos, por ejemplo, los vehículos autónomos.

shutterstock_1190801794Todos hemos oído hablar de más de un accidente protagonizado por estos vehículos, incluso llegando a causar la muerte de un ciclista. Y una de las dudas que surgen, y que las compañías no han aclarado, es qué código ético sigue el automóvil para decidir cómo reaccionar ante un imprevisto que implique a otros seres vivos: ¿Está programado para salvar al conductor ante todo? ¿Debe priorizar la vida de terceros antes que la del conductor? Si el automóvil se topa con un animal, ¿debe protegerle con el mismo empeño que a una persona?

Un grupo de científicos, señalados por la revista Wired, han diseñado un sistema para solucionar este dilema, que deja la responsabilidad en el conductor. Este podrá decidir si desea que su vehículo tome decisiones siguiendo un patrón “totalmente altruista”, “totalmente egoísta” o “de manera imparcial”.

Pero el problema es mucho más amplio, ya que la IA está avanzando a una velocidad vertiginosa, y está contribuyendo a tomar decisiones en ámbitos tan delicados como el sistema judicial o el ámbito médico.

De hecho, un análisis del Foro Económico Mundial se preguntaba si, teniendo en cuenta que nuestra inteligencia, y no nuestra fuerza, es lo que nos ha situado a los seres humanos en la cima de la cadena alimentaria, podremos ser superados por máquinas que alcancen niveles de inteligencia mayores.

Cómo beneficiar a todos

El gran reto de la IA es cómo conseguir que beneficie a todos y no solo a quienes pueden controlarla, señalaba Peter Norvig, el shutterstock_680929729director de investigación de Google, en un reportaje de la BBC. Y es que, explicaba, la complejidad de los softwares que controlan esta tecnología provoca que la toma de decisiones sobre cómo deben operar se reserve a unos pocos expertos.

Además, también surgen dificultades sobre a quiénes llegarán los beneficios económicos que provoque la IA. Las dudas vienen principalmente porque nuestro sistema económico está basado en la compensación a aquellos que con su trabajo contribuyen a la economía, generalmente valorado en sueldo por horas. Pero, ¿qué va a pasar cuando la IA permita desarrollar funciones con menos horas de trabajo y menos personal?

Interacción ¿humana?

Será cada vez más común que interactuemos con robots que actuarán como personas. En 2015, un bot llamado Eugen Goostman ganó el Test de Turing por primera vez, el cual consiguió engañar a la mayoría de las personas, quienes creyeron que estaban hablando con un humano.

Esta forma de actuar de los robots supondrá un reto para los humanos, ya que los robots tendrán formas mucho más amplias de construir relaciones con personas, que las mismas personas.

Sesgo racista

No siempre podemos confiar en la IA para hacer el reconocimiento adecuado de otras personas. Por ejemplo, sistemas de análisis de fotos a través de IA han mostrado un sesgo racista al hacer predicciones sobre posibles criminales.

¿Y la seguridad?

La capacidad amplísima de desarrollar funciones y tomar decisiones de los sistemas de IA también los convierten en un arma peligrosa en manos de nuestros enemigos. Esta situación sería peligrosa, por ejemplo, en el caso de robots programados para actuar como soldado o de armas autónomas.

Además, aun cuando estos robots no estuvieran en manos de nuestros enemigos, podrían tomar decisiones que terminaran atentando contra nosotros, por ejemplo, si un vehículo autónomo toma la decisión de salvar a terceros en un accidente de tráfico en lugar de a su conductor.

La IA ofrece un sinfín de oportunidades para los humanos, pero su avance acelerado, está provocando que surjan dudas sobre si seremos capaces de gestionar las cuestiones éticas que surjan en torno a esta tecnología.

Si quieres conocer más sobre tecnología innovadora, te recomendamos:

Los gigantes de internet apuestan por la banca

¿Es el 5G la nueva imprenta de Gutenberg? 

Back to list

Related Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada.