Meta acuerda alterar la tecnología de segmentación de anuncios en un acuerdo con EE. UU.

SAN FRANCISCO — Meta acordó modificar su tecnología de orientación de anuncios y pagar una multa de $115,054 el martes, en un acuerdo con el Departamento de Justicia sobre las denuncias de que la compañía había incurrido en discriminación en materia de vivienda al permitir que los anunciantes restringieran quién podía ver los anuncios en el sitio. plataforma en función de su raza, género y código postal.

Según el acuerdo, Meta, la compañía antes conocida como Facebook, dijo que cambiaría su tecnología y usaría un nuevo método asistido por computadora que tiene como objetivo verificar regularmente si las audiencias a las que se dirige y son elegibles para recibir anuncios de viviendas están, de hecho, viendo esos anuncios El nuevo método, que Meta llama un “sistema de reducción de varianza”, se basa en el aprendizaje automático para garantizar que los anunciantes entreguen anuncios relacionados con la vivienda a clases protegidas específicas de personas.

Meta también dijo que ya no usará una función llamada “audiencias de anuncios especiales”, una herramienta que había desarrollado para ayudar a los anunciantes a expandir los grupos de personas a las que llegarían sus anuncios. La compañía dijo que la herramienta fue un esfuerzo inicial para luchar contra los sesgos y que sus nuevos métodos serían más efectivos.

“Ocasionalmente, tomaremos una instantánea de las audiencias de los especialistas en marketing, veremos a quién se dirigen y eliminaremos tanta variación como podamos de esa audiencia”, Roy L. Austin, vicepresidente de derechos civiles de Meta y asesor general adjunto. , dijo en una entrevista. Lo llamó “un avance tecnológico significativo sobre cómo se usa el aprendizaje automático para entregar anuncios personalizados”.

Facebook, que se convirtió en un coloso comercial al recopilar los datos de sus usuarios y permitir que los anunciantes dirijan los anuncios en función de las características de una audiencia, ha enfrentado quejas durante años de que algunas de esas prácticas son sesgadas y discriminatorias. Los sistemas de anuncios de la empresa han permitido a los especialistas en marketing elegir quién vio sus anuncios utilizando miles de características diferentes, lo que también ha permitido que esos anunciantes excluyan a las personas que se incluyen en una serie de categorías protegidas.

Si bien el acuerdo del martes se refiere a los anuncios de vivienda, Meta dijo que también planea aplicar su nuevo sistema para verificar la orientación de los anuncios relacionados con el empleo y el crédito. La compañía se enfrentó anteriormente a críticas por permitir prejuicios contra las mujeres en anuncios de empleo y excluir a ciertos grupos de personas de ver anuncios de tarjetas de crédito.

“Debido a esta demanda innovadora, Meta, por primera vez, cambiará su sistema de entrega de anuncios para abordar la discriminación algorítmica”, dijo Damian Williams, fiscal federal, en un comunicado. “Pero si Meta no logra demostrar que ha cambiado lo suficiente su sistema de entrega para protegerse contra el sesgo algorítmico, esta oficina procederá con el litigio”.

El tema de la orientación sesgada de los anuncios se ha debatido especialmente en los anuncios de viviendas. En 2018, Ben Carson, el entonces secretario del Departamento de Vivienda y Desarrollo Urbano, anunció una denuncia formal contra Facebook, acusando a la empresa de tener sistemas publicitarios que “discriminaban ilegalmente” en función de categorías como raza, religión y discapacidad. El potencial de Facebook para la discriminación publicitaria también se reveló en una investigación realizada en 2016 por ProPublica, que mostró que la empresa facilitó a los especialistas en marketing la exclusión de grupos étnicos específicos con fines publicitarios.

En 2019, HUD demandó a Facebook por participar en discriminación de vivienda y violar la Ley de Vivienda Justa. La agencia dijo que los sistemas de Facebook no enviaban anuncios a “una audiencia diversa”, incluso si un anunciante quería que el anuncio se viera ampliamente.

“Facebook discrimina a las personas en función de quiénes son y dónde viven”, dijo Carson en ese momento. “Usar una computadora para limitar las opciones de vivienda de una persona puede ser tan discriminatorio como cerrarle la puerta a alguien en la cara”.

La demanda de HUD se produjo en medio de un impulso más amplio de grupos de derechos civiles que afirman que los vastos y complicados sistemas de publicidad que sustentan algunas de las plataformas de Internet más grandes tienen sesgos inherentes incorporados, y que las empresas tecnológicas como Meta, Google y otras deberían hacer más para combatir revertir esos sesgos.

El área de estudio, conocida como “equidad algorítmica”, ha sido un tema de gran interés entre los científicos informáticos en el campo de la inteligencia artificial. Investigadores líderes, incluidos ex científicos de Google como Timnit Gebru y Margaret Mitchell, han hecho sonar la alarma sobre tales sesgos durante años.

En los años transcurridos desde entonces, Facebook ha tomado medidas drásticas sobre los tipos de categorías que los especialistas en marketing pueden elegir al comprar anuncios de viviendas, reduciendo el número a cientos y eliminando las opciones para orientar según la raza, la edad y el código postal.

El nuevo sistema de Meta, que aún está en desarrollo, verificará ocasionalmente a quién se le muestran anuncios de vivienda, empleo y crédito, y se asegurará de que esas audiencias coincidan con las personas a las que los especialistas en marketing quieren dirigirse. Si los anuncios que se publican comienzan a inclinarse fuertemente hacia los hombres blancos de 20 años, por ejemplo, el nuevo sistema teóricamente reconocerá esto y cambiará los anuncios para que se publiquen de manera más equitativa entre audiencias más amplias y variadas.

Meta dijo que trabajará con HUD en los próximos meses para incorporar la tecnología en los sistemas de orientación de anuncios de Meta y acordó una auditoría de terceros sobre la efectividad del nuevo sistema.

La multa que Meta está pagando en el acuerdo es la máxima disponible bajo la Ley de Vivienda Justa, dijo el Departamento de Justicia.