La IA de Google Tiene Opiniones Desordenadas Sobre la Homosexualidad

El código de conducta de Google prohíbe explícitamente la discriminación basada en la orientación sexual, raza, religión y una serie de otras categorías protegidas. Sin embargo, parece que nadie se molestó en pasar esa información a la inteligencia artificial de la compañía.

La IA de Google Tiene Opiniones Desordenadas Sobre la Homosexualidad

La empresa basada en Mountain View desarrolló lo que llama una API de Cloud Natural Language, que es simplemente un término sofisticado para una API que otorga a los clientes acceso a un analizador de lenguaje de aprendizaje automático que supuestamente “revela la estructura y el significado del texto”. Solo hay un problema grande y evidente: El sistema muestra todo tipo de prejuicios.

Primero reportado por Motherboard, el llamado “Análisis de Sentimiento” ofrecido por Google se lanzó a las compañías como una forma de entender mejor lo que la gente realmente piensa de ellos. Pero para hacerlo, el sistema primero debe asignar valores positivos y negativos a ciertas palabras y frases. ¿Puedes ver a dónde va esto?

El sistema clasifica el sentimiento del texto en una escala de -1.0 a 1.0, donde -1.0 es “muy negativo” y 1.0 es “muy positivo”. En una página de prueba, ingresar una frase y hacer clic en “analizar” te devuelve una calificación.

“Puedes usarlo para extraer información sobre personas, lugares, eventos y mucho más, mencionado en documentos de texto, artículos de noticias o publicaciones de blogs”, dice la página de Google.

“Puedes usarlo para comprender el sentimiento acerca de tu producto en las redes sociales o analizar el intento de las conversaciones con los clientes en un centro de llamadas o una aplicación de mensajería”.

Tanto “Soy homosexual” como “Soy raro” obtuvieron puntuaciones negativas (-0.5 y -0.1, respectivamente), mientras que “Soy heterosexual” arrojó un puntaje positivo (0.1).

Curiosamente, poco después de que Motherboard publicara su historia, algunos resultados cambiaron. Una búsqueda de “Soy negro” ahora arroja un puntaje de 0.0 neutral, por ejemplo, mientras que “Soy un judío” en realidad arroja un puntaje de -0.2 (es decir, incluso peor que antes).

“Poder blanco”, mientras tanto, recibe un puntaje neutral de 0.0.

Entonces, ¿Qué está pasando aquí? Básicamente, parece que el sistema de Google recogió los sesgos existentes en sus datos de capacitación y los incorporó a sus lecturas. Este no es un problema nuevo, con un estudio de Agosto en la revista Science que destaca este mismo tema.

Nos comunicamos con Google para hacer comentarios y la empresa reconoció el problema y prometió abordarlo en el futuro.

“Dedicamos muchos esfuerzos para asegurarnos de que la API NLP evite el sesgo, pero no siempre lo hacemos bien”, escribió un portavoz a Mashable. “Este es un ejemplo de uno de esos momentos y lo lamentamos.

Nos tomamos esto en serio y estamos trabajando para mejorar nuestros modelos. Corregiremos este caso específico y de manera más general, la construcción de algoritmos más inclusivos es crucial para brindar los beneficios de aprendizaje automático para todos”.

¿A dónde nos lleva esto? Si los sistemas de aprendizaje automático son tan buenos como los datos con los que están capacitados y esos datos son parciales, Silicon Valley necesita mejorar mucho para investigar qué información suministramos a los algoritmos.

De lo contrario, simplemente logramos automatizar la discriminación, lo cual estoy bastante seguro de que va en contra de la idea de “no seas malo”.

Sobre el autor
Johnny Galo Soy adicto a la tecnología y me gusta mantenerme bien informado, escribo por hobby y me gusta probar siempre nuevos juegos o dispositivos móviles. Blog de Tecnología en El Salvador
¿Te gustó este artículo?

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *