Periodismo imprescindible Domingo 22 de Diciembre 2024

¿Qué la impide a Facebook limpiar su contenido?

12 de Mayo 2019
AP Photo,Páginas difundidas por Facebook con propaganda terrorista presentadas por un informante y fotografiadas por la Associated Press el 7 de mayo del 2019 en Washington. La empresa dice que se esfuerza por evitar la difusión de contenido inapropiado, pero sus detractores afirman que no hace lo suficiente. (AP Photo/Jon Elswick)
AP Photo,Páginas difundidas por Facebook con propaganda terrorista presentadas por un informante y fotografiadas por la Associated Press el 7 de mayo del 2019 en Washington. La empresa dice que se esfuerza por evitar la difusión de contenido inapropiado, pero sus detractores afirman que no hace lo suficiente. (AP Photo/Jon Elswick)

SAN FRANCISCO (AP) — La pregunta surge a cada rato: Con tanto material extremista, expresiones de intolerancia, interferencia en elecciones e invasiones de privacidad, ¿qué le impide a Facebook limpiar su contenido?

El asunto es complicado y las razones incluyen el tamaño de la empresa, su modelo comercial y limitaciones técnicas, sin mencionar el hecho de que la firma creció por años sin rendirle cuentas a nadie. Y tampoco hay que olvidar el factor humano.

El lío más reciente es la revelación de que Facebook difundió inadvertidamente videos celebratorios de contenido extremista y páginas que se autogeneran para organizaciones como Estado Islámico y Al-Qaida. La compañía dice que está tomando medidas y que los problemas se están resolviendo. Eso es cierto, pero sus detractores afirman que no se hizo lo suficiente si se transmiten en vivo balaceras masivas y se difunden rumores que generan actos de violencia con consecuencias fatales.

“Son exasperantemente lentos al lidiar con todo esto, desde el abuso sexual de menores al terrorismo, la supremacía blanca, el bullying, la pornografía no consentida” y cosas como propaganda dirigida a categorías como “gente que detesta a los judíos” simplemente porque algunos usuarios catalogan el término como “interesante”, según Hany Farid, experto de la Universidad de California de Berkeley.

A medida que se acumulaban los problemas, Facebook se limitaba a ofrecer disculpas y hacer ajustes. A veces se justifica diciendo que no previó hasta qué punto elementos perniciosos podían darle un uso indebido a la plataforma. Más recientemente, la empresa destaca los avances que ha hecho, tanto en el uso de la inteligencia artificial en la detección de problemas como en la asignación de dinero y personal para hacerles frente.

“Después de hacer fuertes inversiones, estamos detectando y eliminando contenido terrorista con mucha más efectividad que hace dos años”, dijo Facebook esta semana en respuesta a las revelaciones de las páginas que se autogeneran. “No decimos que pillamos todo, y seguimos atentos y vigilantes en nuestros esfuerzos para combatir las agrupaciones terroristas de todo el mundo”.

Ha habido algunos progresos. A fines del 2016, el director ejecutivo Mark Zuckerberg causó revuelo al decir que la noción de que noticias falsas de su servicio podían haber decidido las elecciones de Estados Unidos era algo “bastante loco”. Posteriormente se retractó y desde entonces la firma redujo la cantidad de información falsa que circula en su servicio, de acuerdo con varios estudios.

El propio Zuckerberg evitó nuevos pasos en falso, admite errores y ofrece disculpas al público y a los legisladores.

Cuando la empresa resuelve un problema, sin embargo, surgen otros. Esto puede ser consecuencia de su ADN. No responde necesariamente al hecho de que su modelo comercial promueve el uso del servicio por tanta gente como sea posible, personas que dejan información personal que puede ser explotada por otros.

“Casi todo lo que diseñó Facebook lo hizo por el bien de la gente. De gente gentil, que celebra cumpleaños, que tiene cachorritos nuevos y que generalmente trata bien a los demás”, expresó Siva Vaidhyanathan, director del Centro de Medios de Prensa y Ciudadanía de la Universidad de Virginia. “Básicamente, Facebook está pensado para una especie mejor que la nuestra”.

Pero si el 1% de los 2.400 millones de usuarios de Facebook decide hacer cosas nocivas, son 24 millones de personas.

“Cada dos semanas escuchamos que Facebook está eliminando páginas problemáticas, haciendo promesas de que va a contratar más gente, de que va a explotar la inteligencia artificial y todo eso”, dijo Vaidhyanathan. “Pero con el tamaño que tiene Facebook, nada de eso importa. Estamos condenados a ver toda esta basura”.

Chris Hughes, cofundador de Facebook, pidió el jueves en un artículo de opinión que se divida esta gigantesca plataforma en varias partes. Vaidhyanathan también cree que una mayor regulación de parte del gobierno puede ser la respuesta. Leyes que “limiten la capacidad de las compañías de acumular toda nuestra información y usarla para difundir publicidad a la medida del usuario”.

___

El corresponsal de la Associated Press Desmond Butler (Washington) colaboró en este despacho.

Recientes