Facebook finalmente acepta eliminar la herramienta que permitía la publicidad discriminatoria

Facebook finalmente acepta eliminar la herramienta que permitía la publicidad discriminatoria


en un asentamiento Anunciado por el Departamento de Justicia el martes, Meta Platforms, anteriormente conocida como Facebook, acordó eliminar las funciones en su negocio de publicidad que permiten a los propietarios, empleadores y agencias de crédito discriminar a grupos de personas protegidas por las leyes federales de derechos civiles.

El acuerdo se produce casi seis años después de que ProPublica reveló que Facebook permitió que los comercializadores inmobiliarios excluyeran a los afroamericanos y otros de ver algunos de sus anuncios. La ley federal prohíbe la discriminación en materia de vivienda, empleo y crédito por motivos de raza, religión, género, situación familiar y discapacidad.

Durante añosProPublica y otros investigadores demostraron que persistían los problemas en la entrega de anuncios relacionados con la vivienda, el empleo y el crédito, incluso cuando Facebook se comprometió a solucionar las lagunas que identificamos.

El acuerdo de esta semana fue el resultado de una demanda presentada hace tres años por la administración Trump alegando que el sistema de orientación de anuncios de Meta violaba la Ley de Vivienda Justa. El DOJ también argumentó que Facebook usó un algoritmo de aprendizaje automático para restringir y crear audiencias publicitarias, lo que tuvo el efecto de sesgar la entrega hacia o en contra de grupos legalmente protegidos. Esta fue la primera vez que el gobierno federal desafió el sesgo algorítmico bajo la Ley de Vivienda Justa.

Como parte del acuerdo, Meta acordó implementar nuevos métodos publicitarios que serán examinados por un revisor externo y supervisados ​​por el tribunal.

La empresa dijo en un declaración que implementará un «uso novedoso de tecnología de aprendizaje automático que funcionará para garantizar que la edad, el género y la raza o etnia estimada de la audiencia general de un anuncio de vivienda coincida con la edad, el género y la mezcla estimada de raza o etnia de la población elegible para ver ese anuncio.”

La declaración, de Roy L. Austin Jr., vicepresidente de derechos civiles y consejero general adjunto de Meta, señaló que aunque el acuerdo solo requiere que Facebook use su nueva herramienta para anuncios relacionados con la vivienda, también se aplicará a publicaciones sobre empleo y crédito. (Facebook rechazó una solicitud de comentarios adicionales).

El abogado de derechos civiles Peter Romer-Friedman, que ha presentado varios casos contra la empresa, dijo que las negociaciones anteriores habían intentado y fracasado en responsabilizar a Facebook por sesgo algorítmico. “En última instancia, lo que esto muestra es que nunca ha sido una cuestión de factibilidad eliminar el sesgo algorítmico”, dijo a ProPublica. “Es una cuestión de voluntad”.

Después de que nosotros reportado sobre el potencial de discriminación publicitaria en 2016, Facebook prometió rápidamente establecer un sistema para capturar y revisar anuncios que discriminan ilegalmente. Un año después, ProPublica descubrió que era aun posible para excluir a grupos como afroamericanos, madres de niños de secundaria, personas interesadas en rampas para sillas de ruedas y musulmanes de ver anuncios. también fue posible segmentar anuncios a personas interesadas en el antisemitismo, incluidas opciones como «Cómo quemar judíos» y «Hitler no hizo nada malo».

Más tarde descubrimos que las empresas estaban publicando anuncios de empleo que mujeres y trabajadores mayores no pude ver. En marzo de 2019, Facebook resolvió una demanda presentado por grupos de derechos civiles mediante la creación de un «portal de anuncios especiales» específicamente para anuncios de empleo, vivienda y crédito. La compañía dijo que el portal limitaría las opciones de orientación de los anunciantes y también limitaría su algoritmo para que no considere el género y la raza al decidir quién debería ver los anuncios.

Pero cuando ProPublica trabajó con investigadores en la Universidad del Noreste y Upturn para probar el nuevo sistema de Facebook, nosotros encontramos más ejemplos de publicación de anuncios sesgada. Aunque el algoritmo modificado de Facebook impidió que los anunciantes discriminaran explícitamente, la entrega aún podía basarse en características de proxy de «anuncio especial» o «parecido» que se correlacionaban con la raza o el género.

La investigación también encontró que Facebook sesgaba a la audiencia según el contenido del anuncio en sí. La cantidad de mujeres que podrían ver una lista de trabajos para un puesto vacante de conserjería, por ejemplo, dependía no solo de lo que el anunciante le dijera a Facebook, sino también de cómo Facebook interpretaba la imagen y el texto del anuncio.

ProPublica también siguió encontrando anuncios de empleo que favorecían a los hombres o excluían a posibles solicitantes mayores, lo que podría violar ley de derechos civiles. Algunos anunciantes que entrevistamos se sorprendieron al saber que no podían llegar a una audiencia diversa, incluso si lo intentaban.

en un presione soltar, el Departamento de Justicia dijo que el acuerdo del martes requiere que Meta deje de usar la herramienta “Special Ad Audience” para fin de año. También requiere que Meta cambie su algoritmo «para abordar las disparidades de raza, etnia y sexo entre las audiencias objetivo de los anunciantes y el grupo de usuarios de Facebook a quienes los algoritmos de personalización de Facebook realmente entregan los anuncios». La empresa debe compartir los detalles con el DOJ y un revisor independiente antes de implementar cambios.

Como parte del acuerdo, Meta también acordó pagar una tarifa de $115,054, el máximo permitido por la ley.

“Debido a esta demanda innovadora, Meta, por primera vez, cambiará su sistema de entrega de anuncios para abordar la discriminación algorítmica”, dijo en un comunicado el fiscal federal Damian Williams para el Distrito Sur de Nueva York. “Pero si Meta no logra demostrar que ha cambiado lo suficiente su sistema de entrega para protegerse contra el sesgo algorítmico, esta oficina procederá con el litigio”.

FUENTE DEL ARTICULO

Deja una respuesta