La FIFA usó inteligencia artificial para rastrear y ocultar publicaciones ofensivas contra los jugadores de la Copa Mundial de Catar 2022 en redes sociales. A continuación identificó a más de 300 personas que habían escrito comentarios potencialmente ilícitos para denunciarlos a las autoridades.
Un informe reciente revela cómo la FIFA, en colaboración con FIFPro, la organización que representa a los futbolistas profesionales, empleó inteligencia artificial para escanear cerca de 20 millones de publicaciones en Twitter, Instagram, Facebook, TikTok y YouTube. Más de 19.000 comentarios fueron marcados como abusivos, 13.000 de los cuales habían sido publicados en Twitter. De estos, el 23% fue finalmente eliminado por la plataforma.
El pico más alto de abusos se produjo durante el partido de cuartos de final entre Francia e Inglaterra. Según el informe, el 38% de los comentarios abusivos provenía de cuentas europeas, mientras que el 36% provenía de Sudamérica. Las amenazas se volvieron más extremas a medida que el Mundial avanzaba, con un aumento de menciones a las familias de los jugadores y amenazas a los que se atrevieran a pisar un país específico.
Para proteger a los jugadores, la FIFA puso a disposición de los equipos un software de moderación llamado Social Media Protection Service. El SMPS interceptó y ocultó más de 286.000 comentarios abusivos antes de que fueran vistos por los jugadores. La mitad eran de índole sexual, homófobos, sexistas o racistas.
La FIFA dividió las publicaciones abusivas en tres clases: Tier 3, las que violaban los términos de servicio de las redes sociales. Tier 2, las que podían llevar a asociaciones y clubes a actuar a través de iniciativas educativas o sanciones. Y Tier 1, aquellas para las que cabía acción de las autoridades.
La FIFA investigó más de 12.000 cuentas que habían enviado comentarios clasificados como Tier 1 y 2, e identificó a 306 personas en el mundo real que luego denunció a las autoridades locales.