Categoría

Azure

Categoría

Microsoft anunció algunas mejoras importantes en su software de reconocimiento facial que fue catalogado por muchos como un software racista. La Face API basada en Azure fue criticada en un trabajo de investigación a principios de este año por tener una tasa de error tan alta como 20.8 por ciento, cuando se intentaba identificar el género de las personas de color, particularmente las mujeres con tonos de piel más oscuros.

En contraste, la inteligencia artificial de Microsoft pudo identificar el sexo de las fotos de “rostros masculinos más ligeros” con una tasa de error del cero por ciento, concluyó el estudio.

Al igual que otras compañías que desarrollan tecnología de reconocimiento facial, Microsoft no tenía suficientes imágenes de personas negras y marrones, eso se reflejó en los resultados de las pruebas de reconocimiento.

En su blog, Microsoft afirma que la responsabilidad principalmente en los datos que utilizó al mejorar el software de reconocimiento facial en tales tecnologías son “tan buenas como los datos utilizados para capacitarlas”. Considerando la situación, la solución más obvia era un nuevo conjunto de datos que contiene más imágenes de personas de colores más oscuros para hacer el sistema mucho más equitativo.

El equipo de Face API realizó tres cambios importantes. Expandieron y revisaron el conjunto de datos de entrenamiento, lanzaron nuevos esfuerzos de recopilación de datos para mejorar aún más los datos de entrenamiento al enfocarse específicamente en el tono de piel, género y edad, y mejoraron el clasificador para producir resultados de mayor precisión.

Con el último lote de mejoras, Microsoft dijo que fue capaz de reducir las tasas de error para hombres y mujeres con piel más oscura hasta en 20 veces. Para todas las mujeres, la compañía dijo que las tasas de error se redujeron en nueve veces.

En la publicación, la investigadora de Microsoft, Hanna Wallach, abordó uno de los fallos más generales de la industria y señaló cómo los datos generados por una sociedad sesgada conducirían a resultados sesgados cuando se trataba de entrenar sistemas de aprendizaje automático. “Tuvimos conversaciones sobre diferentes maneras de detectar el sesgo y tener mayor equidad”, dijo Wallach.  También habló de diferentes estrategias para probar internamente los sistemas antes de ser implementados.