Facebook enseñará a su IA a distinguir los sesgos de género en los textos
La red social comenzó a estudiar bases de datos con un nuevo enfoque basado en papel que juega cada persona

El SumarioFacebook está desarrollando un nuevo método para entrenar a sus mecanismos de Inteligencia Artificial (IA) que no implique sesgos de género, y para ello comenzó a estudiar bases de datos de texto con un nuevo enfoque basado en papel que juega cada persona en una conversación.

«Los modelos de procesamiento de lenguaje natural pueden aprender inadvertidamente patrones socialmente indeseables cuando se entrenan con texto sesgado», como los sesgos de género, según explicaron los investigadores de Facebook Research en un estudio académico publicado este mes.

El equipo de Facebook propuso un marco de trabajo para analizar palabras y gramática en textos basado en tres pasos, y según el papel que tenga cada persona en una conversación. Así, estudiará al mismo tiempo el sesgo desde el género de la persona que escribe/habla, el género del interlocutor y el género de la persona sobre la que dice algo.

Al poder distinguir los sesgos de género en diferentes dimensiones, el marco de trabajo creado por Facebook permite «entrenar clasificadores de sesgos más precisos».

Han analizado como referencia importante a Wikipedia, web OpenSubtitles y Yelp

Utilizando esta metodología, los investigadores de la compañía estadounidense analizaron desde la perspectiva de género ocho bases de datos de texto utilizadas habitualmente para entrenar a algoritmos de IA, con algunas como Wikipedia, subtítulos de películas publicados en la web OpenSubtitles y valoraciones en Yelp.

Este marco le sirvió a Facebook descubrir sesgos de género en textos por ejemplo de Wikipedia, y sus conclusiones subrayan las diferencias en la clasificación de texto ofensivo.

Conoce más: China lanza de manera “exitosa” nuevo cohete con una nave espacial

María Alejandra Guevara

Con información de dpa