El efecto ‘Fenty’ de Rihanna podría enseñar a los desarrolladores de inteligencia artificial a luchar contra el sesgo.

Cuando empecé a comprar maquillaje, rápidamente aprendí la importancia de los tonos de piel y subtonos. Como alguien con un tono de piel claro-medium y subtonos amarillos, descubrí que las bases que eran demasiado claras y rosadas dejaban mi piel pálida y cenicienta. En ese momento, el rango de tonos de maquillaje era extremadamente limitado, y la alienación que a menudo sentía como una americana de ascendencia china creciendo en Appalachia se amplificaba cada vez que un asociado de ventas proclamaba tristemente que no había un tono de base que coincidiera conmigo.

Solo en años recientes la diversidad de tonos de piel se ha convertido en una preocupación mayor para las compañías de cosméticos. El lanzamiento de Fenty Beauty por Rihanna en 2017, con 40 tonos de base, revolucionó la industria en lo que se ha denominado “el efecto Fenty”, y las marcas ahora compiten para mostrar una mayor inclusividad de tonos de piel. Desde entonces, he sentido personalmente lo significativo que es poder entrar en una tienda y comprar productos directamente de la estantería que reconozcan tu existencia.

Sesgo oculto del tono de piel en la inteligencia artificial

Como científica de investigación de ética en inteligencia artificial, cuando comencé a auditar modelos de visión por computadora en busca de sesgos, me encontré de nuevo en el mundo de los rangos de tonos limitados. En la visión por computadora, donde la información visual de imágenes y videos se procesa para tareas como reconocimiento facial y verificación, los sesgos de IA (disparidades en el rendimiento de la IA para diferentes grupos) han estado ocultos por la estrecha comprensión de los tonos de piel en el campo. En ausencia de datos para medir el sesgo racial directamente, los desarrolladores de IA suelen considerar solo el sesgo entre categorías de tono de piel claro y oscuro. Como resultado, si bien ha habido avances significativos en la conciencia del sesgo de reconocimiento facial contra individuos con tonos de piel más oscuros, rara vez se consideran sesgos fuera de esta dicotomía.

LEAR  El jefe del Banco Comercial de Etiopía advierte que los clientes que se beneficiaron de un error no tendrán escapatoria.

El tono de piel más comúnmente utilizado por los desarrolladores de IA es la escala de Fitzpatrick, a pesar de que originalmente se desarrolló para caracterizar el bronceado o enrojecimiento de la piel para caucásicos. Los dos tonos más profundos se agregaron más tarde para capturar tonos de piel “marrón” y “negro”. La escala resultante se asemeja a los rangos de tonos de base más antiguos, con solo seis opciones.

Esta concepción limitada del sesgo es altamente excluyente. En uno de los pocos estudios que examinaron el sesgo racial en tecnologías de reconocimiento facial, el Instituto Nacional de Normas y Tecnología descubrió que tales tecnologías tienen sesgos contra grupos fuera de esta dicotomía, incluidos los asiáticos orientales, los asiáticos sudorientales y los indígenas americanos, pero tales sesgos rara vez se verifican.

Después de varios años de trabajo con investigadores en mi equipo, descubrimos que los modelos de visión por computadora no solo tienen sesgos entre tonos de piel claros y oscuros, sino también entre los tonos de piel rojos y amarillos. De hecho, los modelos de IA funcionaron menos precisamente para aquellos con tonos de piel más oscuros o más amarillos, y estos tonos de piel están significativamente subrepresentados en los principales conjuntos de datos de IA. Nuestro trabajo introdujo una escala de tono de piel bidimensional para permitir a los desarrolladores de IA identificar sesgos entre tonos claros y oscuros y matices rojos y amarillos en el futuro. Este descubrimiento fue una validación para mí, tanto científicamente como personalmente.

Inteligencia artificial de alto riesgo

Al igual que la discriminación en otros contextos, una característica perniciosa del sesgo de IA es la incertidumbre constante que crea. Por ejemplo, si me detienen en la frontera debido a que un modelo de reconocimiento facial no puede igualar mi cara con mi pasaporte, pero la tecnología funciona bien para mis colegas blancos, ¿se debe a un sesgo o simplemente mala suerte? A medida que la IA se vuelve cada vez más omnipresente en la vida cotidiana, los pequeños sesgos pueden acumularse, lo que resulta en que algunas personas vivan como ciudadanos de segunda clase, sistemáticamente invisibles o mal caracterizados. Esto es especialmente preocupante para aplicaciones de alto riesgo como el reconocimiento facial para identificar sospechosos criminales o la detección de peatones para autos autónomos.

LEAR  Acciones de PANW: Ganancias de Palo Alto superan las expectativas; las acciones caen debido a la débil orientación.

Aunque detectar el sesgo de IA contra personas con diferentes tonos de piel no es una panacea, es un paso importante en un momento en que hay un creciente impulso para abordar la discriminación algorítmica, como se describe en la Ley de IA de la UE y la orden ejecutiva de la IA del presidente Joe Biden. Esta investigación no solo permite auditorías más exhaustivas de los modelos de IA, sino que también enfatiza la importancia de incluir perspectivas diversas en el desarrollo de IA.

Cuando explico esta investigación, me sorprende lo intuitiva que parece ser nuestra escala bidimensional para las personas que han tenido la experiencia de comprar cosméticos, uno de esos raros momentos en los que debes categorizar el tono de tu piel y subtono. Me entristece pensar que quizás los desarrolladores de IA hayan confiado en una concepción estrecha del tono de piel hasta la fecha porque no hay más diversidad, especialmente diversidad interseccional, en este campo. Mis propias identidades duales como una estadounidense de ascendencia asiática y una mujer, que ha experimentado los desafíos de representación del tono de piel, fueron lo que me inspiró a explorar esta solución potencial en primer lugar.

Hemos visto el impacto que las perspectivas diversas han tenido en la industria de cosméticos gracias a Rihanna y otros, por lo que es fundamental que la industria de IA aprenda de esto. No hacerlo significa crear un mundo donde muchos se encuentren borrados o excluidos por nuestras tecnologías. 

Alice Xiang es una investigadora distinguida, autora exitosa y líder en gobernanza que ha dedicado su carrera a descubrir los aspectos más perniciosos de la IA, muchos de los cuales están arraigados en los datos y el proceso de desarrollo de la IA. Es la Jefa Global de Ética de IA en Sony Group Corporation y Científica de Investigación Principal en Sony AI.

LEAR  La ética de los patrones oscuros en el diseño UX

Más comentarios imprescindibles publicados por Fortune:

Por qué soy otra mujer que abandona la industria tecnológica

El código tributario está hecho para las esposas tradicionales. Así es como castiga a las parejas con doble ingreso

Mi salud mental tocó fondo debido a un embarazo difícil. Todos los empleadores deberían ofrecer el tipo de paquete de beneficios que me ayudó a salir adelante

América está debatiendo si aumentar la edad de jubilación, pero los baby boomers ya están trabajando hasta bien entrados los sesenta y setenta

Las opiniones expresadas en los artículos de opinión de Fortune.com son únicamente las opiniones de sus autores y no reflejan necesariamente las opiniones y creencias de Fortune.