Otra cara de la discriminación: publicidad en redes sociales
En abril pasado, publicamos el estudio Más que palabras: buscando consensos para caracterizar el discurso de odio. Para su elaboración fueron entrevistadas catorce activistas e integrantes de la comunidad lésbica de Argentina, Brasil, Costa Rica y Panamá. Durante los encuentros surgió una gran cantidad y variedad de información vinculada a agresiones sufridas en redes sociales, que nos llevaron a producir cuatro artículos adicionales. La primera entrega se refirió a la relación de haters, bots y trolls con el anonimato, mientras que la segunda estuvo dedicada a la relación entre los discursos de odio y la moderación de contenidos de las plataformas.
Los relatos de las panameñas Lucía Ellis y Lorena Chavez inspiraron esta tercera entrega. En las siguientes líneas presentaremos, junto con IPANDETEC, otra cara de la discriminación en línea: la publicidad en redes sociales.
Hoy, a casi nadie le sorprende la frase “cuando un servicio en línea es gratuito, uno no es el cliente, uno es el producto” y esto se debe, en buena parte, a que las personas somos cada vez más conscientes de su significado. Tampoco llama la atención que las redes sociales busquen -cada vez más- formas de captar la atención de quienes las usan. Mientras mayor es el tiempo que las personas transcurren conectadas, más rentable se vuelve su presencia en la red social. La información que van generando a través de sus interacciones es utilizada por las plataformas para crear perfiles de consumo.
Por medio de los perfiles de consumo las plataformas ofrecen a terceras partes (empresas y partidos políticos, entre otros) la posibilidad de alcanzar eficazmente a audiencias objetivas con publicidad personalizada. Y aunque el contenido de los anuncios es obra de aquellas terceras partes, la creación de los perfiles de consumo y la presentación de la información a usuarios/as depende de las decisiones de las plataformas.
El modo de funcionamiento de la publicidad en línea permite que los/las anunciantes elijan, de un vasto menú de características demográficas, quiénes verán los contenidos promocionados especialmente confeccionados para ellos/ellas. La segmentación de audiencias y selección de públicos objetivos, a simple vista, parece inofensiva, pero ¿lo es?
Las redes sociales utilizan mayormente controles automatizados para establecer de qué manera y en qué circunstancias, los/las anunciantes pueden orientar publicidad en función de ciertas características de la audiencia, como la edad y el género. Esto significa que, una vez han elegido su público objetivo, los algoritmos hacen el resto. Pero ¿cómo lo hacen? ¿cómo funcionan los algoritmos? Nadie lo sabe, excepto las plataformas.
A partir de 2016 organizaciones de derechos civiles en Estados Unidos comenzaron a acusar a Facebook de violar leyes federales contra la discriminación y presentaron cinco demandas contra la compañia.1 PROPUBLICA. (2019, 19 de marzo). Facebook Won’t Let Employers, Landlords or Lenders Discriminate in Ads Anymore. Recuperado de https://www.propublica.org/article/facebook-ads-discrimination-settlement-housing-employment-credit
En 2019, como respuesta a las denuncias, Facebook acordó impedir que sus anunciantes se dirijan a la audiencia, seleccionando características protegidas por ley para ofertas de vivienda, empleo y servicios financieros.2American Civil Liberties Union. (2019, 19 marzo). Summary of Settlements Between Civil Rights Advocates and Facebook. Recuperado de https://www.aclu.org/other/summary-settlements-between-civil-rights-advocates-and-facebook Al mismo tiempo, la compañía se comprometió a involucrar a personas y organizaciones expertas, para estudiar potenciales sesgos no intencionados en el modelado algorítmico, implementado por las plataformas de redes sociales.
Ya no se trata solo de los contenidos en línea creados y replicados por usuarios y usuarias, sino también del comportamiento de las propias empresas de redes sociales, en relación al uso de categorías demográficas para la selección de audiencias de contenidos pagados, y también a los potenciales sesgos algorítmicos y sus efectos.
Este último punto es crucial, ya que mediante los algoritmos las plataformas le dan a quienes utilizan sus servicios los contenidos que infieren que desean, basándose en estereotipos de consumo. Sin embargo, los algoritmos pueden tomar por preferencias o intereses de las personas a ciertas interacciones que, en efecto, estan condicionadas por factores de discriminación estructural y sistemática, provenientes de los diversos contextos sociales.
La discriminación, la marginación y la exclusión de personas y grupos sociales en situación de vulnerabilidad, pueden asumir distintas formas en las redes sociales. La circulación de estereotipos y prejuicios negativos no es solo responsabilidad de quienes utilizan las plataformas sino también de las empresas que obtienen enormes beneficios económicos por ello. La publicidad en redes sociales, abiertamente discriminatoria, afecta en gran parte a grupos en situación de vulnerabilidad como la población LGBTIQ+.