La mayor pesadilla de un imperio es crecer tanto que sea imposible mantener el orden en sus dominios. Que se lo digan a los romanos. Facebook ha crecido en pocos años de una forma gigantesca convirtiendo al emperador Mark Zuckerberg en una de las personas más influyentes y poderosas del planeta. Se dice, incluso, que quiere ocupar la Casa Blanca algún día. Que su dedo pulgar apunte a cielo o al suelo es un gesto decisivo en el gran circo de la economía nacida en las redes sociales. Y precisamente en ese crecimiento desmesurado que afecta a cientos de millones de personas en todo el mundo surge una de sus mayores debilidades: es prácticamente inviable vigilar de forma eficaz y solvente toda la marea negra de contenidos ofensivos para evitar una contaminación global.

Una reciente filtración expuesta por la prensa británica dejó bien clara la oscura posición de Facebook: los examinadores que la empresa pone en las torretas virtuales para decidir qué es aceptable y qué se debe rechazar se enfrentan a una misión imposible, por más normas comunitarias que se desarrollen a medida que las circunstancias sociales cambian, y aunque tengan una legión de asesores lanzando propuestas para que la «aduana» no tenga tantas grietas. El mes pasado se reclutó a 3.000 nuevos examinadores para luchar contra esta clase tóxica de contenidos, como respuesta a un vendaval de episodios dramáticos que incluían asesinatos, torturas o asaltos sexuales que muchos usuarios vieron en la pantalla.

Son demasiadas las zonas de riesgo: la infancia, el terrorismo, los derechos humanos, el enjambre político... Áreas tan delicadas, complejas y llenas de alambradas que pisar las minas de la contradicción o la incongruencia parece inevitable en ocasiones. Por ejemplo, supongamos que, como ha ocurrido desgraciadamente en los últimos tiempos, alguien pretende suicidarse en directo y lo muestra a sus seguidores a través de Facebook. Algunas voces consideran que la mejor postura es permitir la difusión de esas horrendas imágenes cuando haya relación con los espectadores porque así salta la alarma y quizá pueda evitarse la tragedia, pero otras consideran inaceptable semejantes contenidos por el efecto contagio que trae consigo.

En el verano de 2016, el equipo moderador de Facebook gestionó más de 4.500 informes de llamado daño autoinfligido… en solo dos semanas. Y las cifras siguen aumentando. La dañina fiebre de la pornovenganza con la que se pretende hacer daño exhibiendo imágenes íntimas de la expareja y de la «sextorsión» llegó a alcanzar los 54.000 casos en un solo mes.

La compañía de Zuckerberg defiende el laborioso y arduo trabajo de sus moderadores apelando a la barrera que supone entender el contexto en que se producen los contenidos sospechosos. Al mismo tiempo, surgen dilemas de gran calado que no se resuelven reclutando a más moderadores. ¿Dónde está la frontera entre la libertad de expresión y el contenido apropiado? Buena pregunta, y peliaguda si tenemos en cuenta que en diez segundos hay que tomar una decisión al respecto.