Análisis y recolección de datos: el sesgo ideológico en la IA

análisis big data

19 Dic Análisis y recolección de datos: el sesgo ideológico en la IA

El análisis y recolección de datos con sesgo ideológico puede provocar efectos adversos en el funcionamiento de dispositivos basados en la inteligencia artificial (IA). 

Y es que, en esta rama de la tecnología, por ahora, más que temer a la singularidad tecnológica -cuando los robots superen la inteligencia del hombre- de lo que sí tenemos motivos para desconfiar es de la introducción de datos sesgados intencionalmente en sistemas que procesan esta información a través de inteligencia artificial.  

Que el asunto no es baladí es sencillo comprenderlo, si se vislumbran algunas circunstancias en las que podría producirse ese sesgo. Imaginemos armas basadas en inteligencia artificial disparan al ejército al que pertenecen en lugar de al enemigo o que un vehículo autónomo avanza en lugar de frenar cuando un peatón cruza la calle. 

análisis e interp

Análisis y recolección de datos para los algoritmos

Un algoritmo es un conjunto de instrucciones de gran complejidad, que trabaja a velocidades muy aceleradas. Y es por esto que detectar una modificación en los datos introducidos en el sistema es muy difícil. 

Por ejemplo, los algoritmos basados en el aprendizaje profundo (deep learning) funcionan a partir del reconocimiento de cantidades ingentes de datos que son etiquetados en distintas categorías. Pero estos datos son muy sensibles a pequeños matices, por lo que cualquier introducción de información por parte de algún agente externo podría corromper los resultados. 

Entre estos algoritmos se encuentran los de reconocimientos de imagen, como el que usa Google para distinguir y etiquetar las personas y los objetos que aparecen en las fotos y así poder ofrecer esas imágenes como resultado cuando un usuario hace una búsqueda relacionada.  

Estos algoritmos son muy susceptibles a ligeros cambios. Para entenderlo mejor, vamos a analizar dos casos en los que el sesgo ideológico provocó errores que causaron gran revuelo entre los usuarios de dos gigantes de Internet: Google y Microsoft. 

 

Análisis y recolección de datos que provocaron grandes errores

Google enfrentó una crisis de reputación grave en Estados Unidos cuando 2015 el ingeniero Jacky Alciné advirtió públicamente de que el buscador ante la búsqueda gorila no era capaz de distinguir entre gorilas y personas de raza negra.  

Aunque la empresa de Alphabet respondió inmediatamente ante esta queja, desde entonces no ha sido capaz de ofrecer una solución óptima. Simplemente lo que ha hecho es bloquear la relación entre algunos términos de búsqueda y algunas imágenes, empobreciendo los resultados en lugar de optimizarlos. 

Por ejemplo, si se hace una búsqueda en inglés de “white woman (mujer blanca)” o “white man (hombre negro)” aparecerán personas de distintas razas, para evitar errores.  

Además, dos años después del error de los gorilas, la revista Wired, tras analizar la búsqueda en un set de 40 000 imágenes dentro del servicio de almacenado de imágenes personales de Google Photos descubrió que para algunos términos como gorila o chimpacé no se arrojaban resultados. Es decir, ante la posibilidad de que el algoritmo se confundiera y mostrara a personas de raza negra como resultado a las búsquedas con esos términos, simplemente bloqueó esos términos como opción de búsqueda.  

Sabotaje a los datos

Otra crisis provocada por el análisis mediante inteligencia artificial de datos sesgados fue la del robot Tay de Microsoft. Aunque en este caso, la crisis sí fue provocada por el sabotaje de esta tecnología, mediante la introducción intencional de datos equivocados. 

Tay fue un chatbot que creó Microsoft para interactuar con un público millennial en Twitter. Dieciséis horas después de su lanzamiento se había convertido en chatbot filonazi que defendía a Hitler.  

En este caso, la perversión del sistema se atribuyó al sabotaje del grupo de ciberactivistas 4chan, quienes supuestamente manipularon el sistema mediante el envío masivo y coordinado de mensajes destinados a modificar la actitud de Tay. Y lo consiguieron, en menos de un día. 

Si te ha gustado este artículo, te recomendamos: 

CRM: Cómo puede ayudar la inteligencia artificial a pequeños negocios 

Los desafíos éticos de la inteligencia artificial 

No hay comentarios

Escribe tu comentario