Destacamos

¿Qué criterios usa Facebook para permitir o bloquear mensajes de odio?

Por Mariano Quiroga. Grandes empresas multinacionales comenzaron una cruzada para ponerle un límite a los mensajes de odio que circulan por la red social que usa un tercio de la población mundial. ¿Cuáles son los criterios que usa Facebook para permitir o bloquear mensajes?

Cuando internet empezó a dar sus primeros pasos en el año 1983 despertó en la sociedad la esperanza de estar delante de un oasis de información que nos llevaría a vivir en un mundo mejor. Hoy esas ilusiones se reafirman en algunos puntos y en otros nos encontramos frente a los males de este nuevo mundo, manejado por el denominado club de los 5 (Facebook, Google, Amazon, Microsoft, Apple).

Mark Zuckerberg es uno de los fundadores de Facebook, red social usada por un tercio de la población mundial; su fortuna asciende a los 80.200 millones de dólares, convirtiéndose en la quinta fortuna más importante del planeta. Su poder es tan grande que tiene acceso a la Casa Blanca como si fuera un primer ministro y ya es un personaje que influye en la política no solo de su país sino del mundo.

Facebook tiene más de 2 mil millones de usuarios activos generando y compartiendo contenido; por sus calles circulan todo tipo de personajes, desde humildes jubilados o inocentes niños hasta grupos de supremacistas blancos o neonazis que expresan su ideología llena de odio sin ningún tipo de pudor. Esto despertó fuertes críticas a Mark Zuckerberg y originó el inicio de una campaña denominada Stop hate for profit, donde poderosas multinacionales decidieron por un mes dejar de anunciar en dicha plataforma.

Este acto, que traducido al español significa detengan el odio por dinero, juntó a las firmas de Coca Cola, Verizon y Unilever, entre otras empresas, que le hicieron perder a Mark Zuckerberg la suculenta cifra de 7.200 millones de dólares. Es que del negocio de la publicidad Facebook obtiene el 98% de sus ingresos y esta campaña le hizo bajar sus acciones un 10%.

Ante semejante situación, la empresa tomó la decisión de crear una corte de notables que de manera autónoma regule el contenido. Acá entramos en una cuestión polémica, porque esta corte es elegida por la misma empresa. Por lo tanto, ¿hasta qué punto va a ser independiente y cuál será el criterio que va a emplear para decidir qué debe verse en la red? Esta acción conciliatoria deja la moderación de los contenidos en manos de seres humanos relegando a un segundo plano al famoso algoritmo.

Hasta ahora, el mecanismo de censura de Facebook fue bastante cuestionable, porque mientras deja que grupos de ultraderecha desplieguen todo su arsenal de odio, los algoritmos de la empresa bajan publicaciones que no presentan ningún tipo de ofensa.

La argentina María Rot, activista por los derechos de las trabajadoras sexuales, es la primera mujer latinoamericana en ganarle una demanda a la empresa. El 11 de agosto Riot subió a su muro la foto de una sesión artística que había realizado con otros amigos, donde supuestamente se le veía un pezón, algo que la empresa no tolera. A los quince minutos recibió un aviso donde se daba de baja la foto y su cuenta quedaba bloqueada por treinta días.

Pero la misma plataforma da pie a que estos grupos de ultraderecha deambulen por sus plataformas y hasta publiciten. En el año 2017 la periodista Julia Agwin, junto a su equipo de investigadores de ProPublica, descubrió que el algoritmo de Facebook permitía segmentar anuncios de ventas excluyendo a personas de raza negra, ya que según ellos estos eran compradores menos atractivos. De esta manera incluso la empresa violaba la ley de acceso justo a la vivienda que expresa que está prohibido publicar avisos que indiquen preferencias raciales.

En estas disputas también se vio involucrado Donald Trump cuando lanzó una plataforma digital para que los estadounidenses cuenten las veces que fueron censurados por Facebook. Esto sucedió como un contraataque a la empresa cuando censuró algunos discursos del presidente de EE.UU.

En esta puja el mandatario también pretende acabar con la ley 230, mejor conocida como «Las 26 palabras que crearon Internet». Este artículo, formado por 26 palabras, deja en manos de las plataformas decidir sobre el contenido originado por los usuarios.

Seguramente Facebook avance y tome acciones para revertir sus errores. Así se manejan. En el medio, para lavar culpas, la empresa realizará actos de filantropía en África para de esta manera mostrar que no tiene nada que ver con los mensajes de odio que circulan en sus plataformas. Y Mark Zuckerberg hará todo lo posible para que en sus redes sociales convivan las minorías excluidas, los neofacistas y las empresas aportantes.

¿Qué opinás?

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

x

Check Also

Vuelos de lujo a la Antártida para ver el paisaje, otra idea de las aerolíneas frente a la crisis 

La actividad aerocomercial es una de las más afectadas por la pandemia de coronavirus. En todo el mundo, las compañías aéreas ...