Facebook El 24 de julio, los funcionarios dijeron que la compañía está utilizando una variedad de técnicas, incluida la inteligencia artificial, para contrarrestar a los operativos rusos u otros que usan tácticas engañosas e información falsa para manipular la opinión pública.
Los funcionarios dijeron a los periodistas en una sesión informativa telefónica que esperaban encontrar tales esfuerzos en la red social antes de las elecciones de mitad de mandato de Estados Unidos en noviembre, pero se negaron a revelar si ya habían descubierto tales operaciones.
Facebook se ha enfrentado a duras críticas sobre cómo maneja la propaganda política y la información errónea desde las elecciones estadounidenses de 2016, que según las agencias de inteligencia estadounidenses fueron influenciadas por el gobierno ruso, en parte a través de las redes sociales.
La controversia no ha disminuido a pesar de las iniciativas de Facebook que incluyen una nueva herramienta que muestra toda la publicidad política que se está ejecutando en la red y nuevos esfuerzos de verificación de hechos para informar a los usuarios sobre falsedades obvias.
Pero la empresa reiteró el 24 de julio que no eliminará las publicaciones simplemente porque sean falsas. Director Mark Zuckerberg la semana pasada fue criticado por citar la negación del Holocausto como un ejemplo de declaraciones falsas que no se eliminarían si se expresaran con sinceridad.
La sesión informativa del 24 de julio, que incluyó a Nathaniel Gleicher, jefe de política de seguridad cibernética, y Tessa Lyons, gerente de la “fuente de noticias” central de Facebook, se produjo justo antes de la publicación de un mensaje interno del personal del jefe de seguridad saliente de Facebook que criticaba duramente a muchos prácticas de la empresa.
la nota de Alex Stamos, escrito en marzo después de que dijo que iba a dejar la compañía, instó a sus colegas a prestar atención a los comentarios sobre características “espeluznantes”, recopilar menos datos y “quitar la prioridad del crecimiento y los ingresos a corto plazo” para restaurar la confianza. También instó a los líderes de la compañía a ‘tomar partido cuando haya problemas morales o humanitarios claros’.
Stamos publicó la nota en un sitio interno de Facebook, pero Reuters confirmó su autenticidad. fue primero revelado por Noticias BuzzFeed.
Stamos dijo que la compañía necesitaba ser más abierta en la forma en que administra el contenido de su red, que se ha convertido en un medio importante para la actividad política en muchos países del mundo. La rueda de prensa del 24 de julio fue parte de los esfuerzos de la compañía en esa dirección.
Lyons dijo que la compañía estaba progresando en suavizar su proceso para los verificadores de datos asignados a etiquetar información falsa. Una vez que un artículo se etiqueta como falso, se advierte a los usuarios antes de que lo compartan y la distribución posterior cae un 80 por ciento, dijo Lyons.
Las publicaciones de sitios que a menudo distribuyen información falsa se clasifican más abajo en los cálculos que determinan lo que ve cada usuario, pero no se eliminan por completo de la vista.
Gleicher dijo que aquellos que buscan promover deliberadamente información errónea a menudo usan cuentas falsas para amplificar su contenido o violan los estándares de la comunidad, los cuales son motivo para eliminar publicaciones o páginas enteras.
Dijo que la compañía usaría un tipo de inteligencia artificial conocida como aprendizaje automático como parte de sus esfuerzos para erradicar los abusos.