¿Qué pensarías si descubrieras que tu existencia cotidiana, las cosas que te gustan y comentas, las fotografías de tu cumpleaños y de tu perro, están en manos de un programa de ordenador que gobierna con mano de hierro y decide qué es aceptable y qué no? No es una novela de ciencia ficción, es Facebook.
La red social por excelencia, que actualmente cuenta con más de 1.000 millones de usuarios, emplea un potente software para analizar maquinalmente los contenidos y publicaciones de los perfiles y decide lo que debe ser borrado por violar “las normas comunitarias”.
En teoría, los análisis de estos contenidos se basan en denuncias previas de los usuarios, pero la opacidad es la tónica general en Facebook, por lo que nunca se sabe a ciencia cierta qué le motiva a actuar contra unos contenidos o contra otros.
Lo que sí está claro es que, si una fotografía o un artículo no pasan los filtros del programa todopoderoso, éste los bloquea sin piedad. El problema surge cuando este software, que obviamente no puede pensar por sí mismo, detecta como inapropiado un contenido que no lo es y bloquea al desprevenido y bienintencionado usuario.
Los bloqueos de Facebook
En teoría, la empresa de Mark Zuckerberg también cuenta con trabajadores que revisan estos contenidos pero, según explica Guillermo Perezbolde, vicepresidente de marketing y publicidad de la AMIPCI (Asociación Mexicana de Internet), “como hay tantos sitios que revisar, en ocasiones es el software el que da de baja automáticamente algún contenido sin que el ojo humano lo revise y por eso a veces parece que se bloquean contenidos de forma arbitraria”.
Precisamente, la arbitrariedad a la hora de eliminar publicaciones es una de las grandes quejas de los usuarios de Facebook, que han visto cómo la red bloqueaba fotografías personales e incluso imágenes de obras de arte que ya habían sido expuestas en galerías o museos. Y es que Facebook no entiende mucho de arte contemporáneo.
Bien lo sabe, Erik Ravelo, artista cubano al que Facebook censuró recientemente una de las fotografías de su serie “Los Intocables”. Se trataba de un conjunto de imágenes en las que se veía a adultos -un sacerdote, un turista sexual, un soldado…-que portaban a su espalda a niños crucificados, víctimas de los abusos en todo el mundo. Al aparecer, la imagen contra la pedofilia en la Iglesia, en la que el sacerdote llevaba crucificado a un niño en ropa interior, fue marcada como ofensiva por muchos usuarios y eliminada.
¿Está justificado que una imagen sea bloqueada si a un grupo de personas no le agrada una fotografía o su mensaje? Y, más importante, tras siglos de lucha por la libertad de expresión e información, ¿podemos afirmar que existe censura en Facebook?
Para Perezbolde “censura como tal no la hay”, sino que se trata de una serie de prácticas que buscan “proteger la moralidad de los usuarios de contenido no apto, especialmente a los menores”.
Sin embargo, Raul López Parra, editor de la Revista Mexicana de Comunicación, considera que sí se puede hablar de “censura”, pero puntualiza: “el tipo de censura de Facebook no atenta contra la libertad de expresión ni la libre circulación de ideas”. “Lo que sí se puede criticar es que Facebook no pone en un lugar más visible la información sobre políticas de uso. Es como las letras pequeñas del contrato que nadie lee pero que aparecen cuando uno menos se lo espera”, añade.
Ahora bien, ¿cuáles son las líneas rojas de Facebook? O dicho de otra forma, ¿qué estímulos hacen saltar las alarmas del software omnipresente?
Uno de los ámbitos más controlados por Zuckerberg es la pornografía y los desnudos en general. De hecho, como explica López Parra, “a veces se censuran fotografías que no son pornográficas pero hieren susceptibilidades de algunos usuarios”.
En general, Facebook no acepta representaciones integrales del cuerpo humano, ya sea fotografías o dibujos. Aunque sí permite obras de arte “tradicionales”- no te preocupes Rubens, “Las tres gracias” no corren peligro. Y, dentro de la desnudez, la red social siente verdadera animadversión hacia los pezones. Nada de pezones en tu página o serás bloqueado.
Cuando no es pornografía sino supervivencia
Este férreo control sobre las imágenes corporales llevó a Facebook a censurar por pornográficas algunas de las fotografías del proyecto SCAR, compuesto por instantáneas de mujeres que habían padecido cáncer de mama y mostraban las cicatrices en sus senos tras las mastectomías a las que se habían sometido.
Escandalizada por la actitud de la compañía, una de las mujeres que habían padecido este tipo de cáncer, Scorchy Barrington, comenzó una campaña de protesta para exigir a Zuckerberg una rectificación. Tras lograr más de 21.000 firmas, la empresa modificó su política con respecto a imágenes sobre mastectomía. Al parecer, el software no había percibido que no se trataba de pornografía, sino de supervivencia.
Otro campo de actuación prioritario para esta red social es la violencia explícita, ya sea entre personas o contra los animales. Y aquí surge de nuevo la polémica: ¿debe ser bloqueada por herir sensibilidades una fotografía explícita de un animal torturado cuya difusión pretenda denunciar esta práctica? ¿Y de un grupo de cadáveres resultado de un bombardeo? En ambos casos, el programa no podría valorar las intenciones de quien postea y se guiaría ciegamente por sus parámetros preestablecidos.
Facebook también pone especial cuidado en el tema de violaciones a los derechos de autor, aunque en este caso no se hace para salvaguardar la “moralidad” de los usuarios, sino que, según comenta López Parra, se debe “al carácter comercial con el que Facebook busca rentabilizar a las marcas que pagan por aparecer anunciados”.
En contraste con la severidad que presenta frente a estos temas, Facebook tiene serios problemas para limitar o restringir el acoso en la red a otros usuarios. Según Perezbolde, el bulliyng es la gran asignatura pendiente de Zuckerberg “porque cuesta detectarlo. Si el software no lo identifica, se pueden colar ese tipo de contenidos”.
La falta de eficacia de Facebook para frenar a tiempo las campañas de difamación y amenazas a usuarios saltaron a la palestra con casos como el de las adolescentes Amanda Todd y Rebecca Sedwick, que se quitaron la vida tras sufrir un largo proceso de ciberacoso.
Uno de los grandes interrogantes al analizar el proceso de censura de contenidos en Facebook, es averiguar cómo se valoran las denuncias de los usuarios. ¿Cuánta gente debe sentirse molesta para que el software actúe: 10, 100, 1.000 personas?
La red social no se pronuncia al respecto. Para López Parra, éste es un punto crucial: “supongamos que un día Mark Zuckerberg, o un trabajador cualquiera, ve un contenido que no le gusta y ordena que lo censuren, sería la voluntad de una persona y no un grupo dentro de la empresa que discute cuándo se debe censurar. Creo que Facebook sí debe informar sobre el proceso de toma de decisiones respecto a las políticas de censura”.
En este momento, mientras tus ojos recorren este artículo, el software de la red social más importante de Occidente, sigue analizando incansable las publicaciones de sus 1.200 millones de usuarios y estableciendo, bloqueo a bloqueo, la moralidad del siglo XXI.
No hay comentarios:
Publicar un comentario