Esto se produce en respuesta a lo sucedido en marzo en el atentado de Christchurch -Nueva Zelanda- cuando 51 personas fueron asesinadas y el sospechoso, un hombre australiano, transmitió el ataque en vivo en Facebook. El video se difundió por internet.
Ayer por la noche, en su respuesta más fuerte a las escenas violentas que se transmitieron en vivo a través de su red social, Facebook anunció que impondrá más restricciones al uso de su servicio de video en vivo.
La compañía dijo que, a partir de hoy, cualquier persona que rompa ciertas reglas en la transmisión de contenido en Facebook Live tendrá prohibido temporalmente el uso del servicio, con la posibilidad de una prohibición de 30 días por primera ofensa. Anteriormente, no solía bloquear a los usuarios hasta que habían infringido estas reglas varias veces. Los delincuentes múltiples, o las personas que publican contenido particularmente grave, pueden ser excluidos de la red social.
El vicepresidente de integridad en Facebook, Guy Rosen , escribió en una publicación del blog de la compañía que «después de los horribles ataques terroristas en Nueva Zelanda, hemos estado revisando qué más podemos hacer para evitar que nuestros servicios se utilicen para causar daño o propagar el odio. Además, aseguró que ahora aplicarán una política de ‘un solo ataque’ a Live en relación con una gama más amplia de delitos.
Facebook no especificó qué delitos eran elegibles para la política de un solo golpe o cuánto durarían las suspensiones, pero una portavoz dijo que no habría sido posible que el tirador usara Live en su cuenta según las nuevas reglas.
La compañía dijo que planea extender las nuevas restricciones a otras áreas en las próximas semanas, comenzando con evitar que las mismas personas creen anuncios en Facebook.
Entre las cosas que están prohibidas en Facebook y que penalizarán a los usuarios según la propia norma publicada por la red social en su blog son los desnudos o contenido de carácter sexual; lenguaje ofensivo, amenazas creíbles o ataques directos a un individuo o un grupo; contenido con violencia excesiva o autolesiones; perfiles falsos o engañosos; y spam.
Pese a los esfuerzos de la red social dirigida por Mark Zuckerberg; muchos de los que la criticaron por haber demorado en interrumpir ese video, podrían poner en duda el alcance real de estas restricciones y si son lo suficientemente duras para frenar la difusión en vivo de actos violentos. Muchos críticos han pedido a la compañía que simplemente cierren Facebook Live. Por otro lado, puede que también no sea una medida que satisfaga a algunos gobiernos. Los legisladores australianos, por ejemplo, han considerado multas e incluso penas de cárcel para los ejecutivos de redes sociales que no logran eliminar rápidamente el contenido violento.
Al anunciar las nuevas restricciones a su servicio de vídeo en directo, Facebook dijo que se estaba asociando con tres universidades -la Universidad de Maryland, la Universidad de Cornell y la Universidad de California en Berkeley- en un esfuerzo por desarrollar nuevas tecnologías para detectar y eliminar imágenes y vídeos problemáticos de Internet.
Facebook y otras empresas tardaron en identificar y eliminar el vídeo de Christchurch, en parte porque el original había sido editado a pequeña escala a medida que pasaba por diversos servicios.
A través de sus nuevas asociaciones universitarias, respaldadas por una financiación de 7,5 millones de dólares, Facebook dijo que trabajará en la creación de tecnología que pueda detectar imágenes y vídeos que hayan sido manipulados de manera sutil.
En los últimos tres años, Facebook y otros gigantes de las redes sociales se han visto sometidos a una presión cada vez mayor para identificar y eliminar una amplia gama de contenidos problemáticos, entre los que se incluyen las expresiones de odio, las noticias falsas y la violencia.
La compañía ha dicho que ahora está utilizando la inteligencia artificial para identificar muchos tipos de contenido problemático y que esta tecnología está mejorando rápidamente.
Sin embargo, la inteligencia artificial no siempre detecta todos los materiales, sobre todo discursos de odio y noticias falsas. Y el ataque en Christchurch demostró que la tecnología todavía tiene un largo camino por recorrer cuando se trata de detectar imágenes violentas. Facebook también paga a miles de empleados por contrato para que examinen y eliminen el contenido problemático. A pesar de esas salvaguardias, el video de Christchurch se difundió.
Además, Facebook informó que eliminó 1.5 millones de videos en todo el mundo que contenían imágenes del ataque en las primeras 24 horas después de ocurrido. Dijo en una publicación de blog a fines de marzo que había identificado más de 900 versiones diferentes del video.
Una solución para librar a Facebook Live de material violento sería simplemente apagarlo. Pero ese no es todavía un paso que la empresa quiera dar. En un eco de las declaraciones anteriores de los ejecutivos de la compañía, Rosen dijo que la compañía estaba tratando de encontrar un equilibrio entre los puntos de vista opuestos.
«Reconocemos la tensión entre las personas que prefieren un acceso sin restricciones a nuestros servicios y las restricciones necesarias para mantener a la gente segura en Facebook», escribió. «Nuestro objetivo es minimizar el riesgo de abuso en Live y permitir que la gente use Live de forma positiva todos los días».
Brendan O’Connor, profesor de ciencias de la computación de la Universidad de Massachusetts en Amherst, quien una vez fue interno en Facebook y ahora se especializa en tecnologías que pueden captar contenido problemático en los medios sociales, dijo que analizar el video mientras se transmite era un problema particularmente difícil.
Las restricciones llegan horas antes de la cumbre mundial “Tecnología para el bien”
El anuncio se programó para coincidir con una reunión en París entre la primera ministra Jacinda Ardern de Nueva Zelanda y el presidente Emmanuel Macron de Francia.
Hoy miércoles, se espera que los dos líderes del gobierno firmen la “Convocatoria de Christchurch”, como culminación de la cumbre «Tech for Good» (“Tecnología para el bien”) que se realiza hoy en el Palacio del Eliseo en Paris. El objetivo principal de esta reunión de varios jefes de estado, además de grandes líderes mundiales de las nuevas tecnologías; es establecer medidas para luchar contra el extremismo y la difusión de contenidos de odio y violencia en internet.
En esta oportunidad la Primera Ministra de Nueva Zelanda, Jacinda Ardern, está a cargo de liderar junto con Macron esta edición. Ardern tiene planeado que la cumbre culmine la firma de ese llamado que hace referencia a lo que fue la peor masacre que Nueva Zelanda ha vivido en su historia cuando el pasado 15 de marzo un atacante transmitió en vivo por la red social Facebook la masacre que perpetró en dos mezquitas de esa ciudad, dejando 51 personas muertas.
Luego de lo ocurrido el pasado marzo, la primera ministra de Nueva Zelanda ha presionado por nuevos límites contra la propagación de contenido violento y extremista en línea.
Durante esta cumbre mundial, se espera que insten a Facebook y otras compañías de Internet a realizar compromisos que incluyan reexaminar sus algoritmos que guían a las personas hacia el contenido a través de la web.
El acuerdo no es vinculante, pero agrega más presión política a Facebook para salvaguardar su plataforma en contra de ser una red de transmisión en línea por comportamiento violento.
El ataque en Christchurch inspiró a la Sra. Ardern a impulsar la cooperación internacional contra el extremismo en línea. Ella ha argumentado que un enfoque país por país no funcionará en un mundo digital interconectado. Además de Francia, Gran Bretaña, Canadá, Jordania, Senegal, Indonesia, Australia, Noruega, Irlanda y la Comisión Europea también se espera que firmen el acuerdo. En cuanto a las compañías; Facebook, Google y Microsoft también han dicho que firmarán. Twitter se negó a hacer comentarios.
Facebook explicó por qué no detectó el video en vivo al instante
El video fue removido de la red social luego de que un usuario lo reportó media hora después, según informó la compañía unos días después de la masacre a través de un texto firmado por Guy Rosen, vicepresidente de integridad de Facebook.
Las redes sociales funcionaron como el escaparate para que el australiano Brenton Tarrant mostrara la masacre que realizó en dos mezquitas en Christchurch, Nueva Zelanda, pues portaba una cámara en la cabeza con la que grabó y transmitió en vivo por Facebook Live durante 17 minutos.
El hecho que conmocionó al mundo pudo ser visto por unas 4.000 personas antes de que las herramientas de inteligencia artificial de Facebook detectaran la gravedad de las imágenes.
El atacante ingresó a la mezquita Masjid Al Noor Mosque, en el centro de Christchurch, y empezó con un fusil semiautomático de alto calibre a disparar indiscriminadamente contra los feligreses.
Durante los 17 minutos que duró la transmisión del video, se paseó de un lado al otro de la mezquita. Luego, escapó en un auto, y en la huida atropelló a una persona. También publicó un manifiesto en las redes sociales con ideología extremista y proclamas contra los inmigrantes musulmanes.
En el texto difundido por la compañía, Rosen además explicó que para sus sistemas de inteligencia artificial es más complicado detectar videos de tiroteos que de desnudos porque se basa en la cantidad de información que tienen registrada. «Ese video en particular no activó nuestros sistemas de detección automática» escribió.
«Para lograrlo, tendremos que proporcionar a nuestros sistemas grandes volúmenes de datos de este tipo específico de contenido, algo que es difícil, ya que estos eventos son afortunadamente raros. Otro desafío es discernir automáticamente este contenido de contenido visualmente similar e inocuo; por ejemplo, si nuestros sistemas marcan miles de videos de videojuegos transmitidos en vivo, nuestros revisores podrían perderse los videos importantes del mundo real».