Facebook ha lanzado una investigación para comprobar el posible sesgo de sus algoritmos. Su objetivo es mejorar las respuestas al movimiento #BlackLivesMatter y una reciente auditoría de derechos civiles.
Instagram, propiedad de Facebook, revisará sus algoritmos principales, informa The Wall Street Journal.
«El recién formado «equipo de equidad e inclusión» de Instagram examinará cómo los usuarios negros, hispanos y otras minorías en los EE.UU. se ven afectados por los algoritmos de la compañía, incluyendo sus sistemas de machine-learning, y cómo esos efectos se comparan con los de los usuarios blancos, según personas familiarizadas con el tema».
Facebook creará un equipo similar para su aplicación principal también.
El movimiento es la respuesta de la firma a los crecientes llamados para mejorar la representación después de las recientes protestas de #BlackLivesMatter.
La propia auditoría de derechos civiles de Facebook este mes encontró preocupaciones con sus sistemas, incluyendo un probable sesgo algorítmico.
«Debido a que los algoritmos funcionan entre bastidores, los algoritmos mal diseñados, sesgados o discriminatorios pueden crear silenciosamente disparidades que pasan desapercibidas durante mucho tiempo a menos que haya sistemas para evaluarlas», dijeron los informes.
El algoritmo de Facebook ayudó sin saberlo a difundir la discriminación en el pasado.
Un informe de 2016 de ProPublica mostró cómo las afinidades étnicas de Facebook demográficas podrían filtrar grupos raciales de la publicidad, una violación de las leyes federales. Facebook suspendió la opción.

Muchas opciones de segmentación publicitaria fueron construidas por los sistemas de machine learning de la red social. Y estas dependen de las tendencias de uso. Los resultados de las opciones del algoritmo dependen de los datos disponibles, en lugar de permitir que los moderadores de Facebook deliberen.
Una historia de discriminación algorítmica.
El año pasado, la empresa eliminó todos los anuncios discriminatorios posibles que apuntaban a opciones de vivienda, empleo o crédito. Sin embargo, los expertos dijeron que los sistemas definidos algorítmicamente siguen siendo vulnerables al sesgo subyacente del conjunto de datos de entrada.
«Está dentro de la posibilidad, dependiendo de cómo se construya el algoritmo, de que se termine sirviendo anuncios, inadvertidamente, a audiencias sesgadas», dijo la profesora de la Universidad de Washington Pauline Kim al New York Times.
Además de un nuevo diseño, en el lado del administrador de la página, la navegación entre el perfil del dueño de la página y la página de cara al público se simplificó, así como la capacidad de asignar y administrar los permisos de acceso de los administradores en base a tareas específicas.
Cualquier algoritmo basado en datos del mundo real siempre mostrará sus sesgos. Facebook pasará por alto estos sesgos en sus procesos sin un examen completo de sus sistemas.
Si Facebook puede mejorar sus sistemas y eliminar el sesgo algorítmico, mejorará la igualdad. Las lecciones pueden ayudar a otras plataformas de medios sociales a abordar preocupaciones similares en sus propios sistemas.
El movimiento también puede ayudar a Facebook a arreglar sus relaciones con los organismos de control de los derechos civiles. Los grupos han boicoteado los anuncios de Facebook en julio por la negativa de la empresa a filtrar los discursos de odio publicados por el presidente de EE.UU. Donald Trump.
Tenemos un largo camino por recorrer para arreglar la discriminación y la desigualdad. Sin embargo, al abordar estos elementos clave, Facebook puede mostrar que quiere tomarlo en serio.
Ya luego de este estudio veremos que sucede con el algoritmo y como lo pueden transpolar a nivel mundial y no solo en EE.UU.
Ahora puedes hacer tres cosas: Si te ha parecido útil este post ayúdame a compartirlo. Si quieres leer más contenido de marketing digital suscríbete a nuestra newsletter. Si quieres que hablemos de un tema en específico escríbenos por la página de contactar.