Vídeos que violan sus propias políticas: así es como YouTube traiciona su algoritmo, dice el informe de Mozilla | La tecnologia

Vídeos que violan sus propias políticas: así es como YouTube traiciona su algoritmo, dice el informe de Mozilla |  La tecnologia
Unsplash

«YouTube debe aceptar que su algoritmo está diseñado de tal manera que dañe y desinforma a las personas», dijo el oficial de defensa senior de Mozilla, Brandi Gerkink, después de revelar los hallazgos de una investigación de la Fundación Mozilla, del consorcio de desarrolladores de Firefox. navegador: sobre el funcionamiento de la plataforma de video que alberga a más de 2 mil millones de usuarios activos.

Las conclusiones son contundentes. Realizada con datos donados por miles de usuarios de YouTube, la encuesta encontró que el algoritmo del reproductor de grabación recomienda videos que contienen desinformación, contenido violento, incitación al odio y estafas, características que la plataforma sanciona en sus políticas de uso. La investigación también encontró que las personas que viven en países donde el inglés no es el primer idioma tienen muchas más probabilidades (un 60% más) de encontrar videos perturbadores. «Mozilla espère que ces découvertes, qui ne sont que la pointe de l’iceberg, convaincront le public et les législateurs du besoin urgent d’une plus grande transparence de l’intelligence artificielle de YouTube», note l’équipe de chercheurs dans son relación.

«Es difícil para nosotros sacar conclusiones de este informe porque nunca definen lo que significa ‘rechazable’ y solo comparten algunos videos, no todos los datos», dijo un portavoz de YouTube, agregando que parte del contenido clasificado como basura incluye un tutorial de fabricación de cerámica, un corte del programa de televisión de Silicon Valley, un video de manualidades y un corte de Fox Business.

El algoritmo como problema

La investigación duró diez meses y se llevó a cabo en colaboración con un equipo de 41 asistentes de investigación empleados por la Universidad de Exeter en Inglaterra. Para obtener los datos filtrados, Mozilla utilizó la herramienta RegretsReporter, una extensión de navegador de código abierto que ha convertido a miles de usuarios de YouTube en perros guardianes de la plataforma. En otras palabras, los usuarios voluntarios donaron sus datos para que los investigadores tuvieran acceso a un conjunto de datos de recomendaciones estrictas de YouTube.

Más información

Los voluntarios de la investigación encontraron una variedad de «videos lamentables» que informaban de todo. Quizás demasiado. Desde el miedo al coronavirus hasta la desinformación política y las caricaturas infantiles «extremadamente inapropiadas», según muestra una investigación. El 71% de todos los videos que los voluntarios definieron como inapropiados o con contenido ofensivo fueron recomendados activamente por el propio algoritmo. Como resultado, casi 200 videos que YouTube recomendó a los voluntarios ahora se han eliminado de la plataforma, incluidos varios que la compañía consideró violar sus propias políticas. Estos videos totalizaron 160 millones de visitas antes de ser eliminados y obtuvieron un 70% más de visitas por día que otros videos que cumplen con los estándares de la plataforma.

Y hay mas. Los videos recomendados que violaban las políticas de la plataforma tenían un 40% más de probabilidades de ser vistos que los videos buscados, y las recomendaciones no estaban necesariamente relacionadas con el contenido visto. Por ejemplo, en el 43,6% de los casos, la recomendación no tenía nada que ver con los videos que había visto el voluntario. «Nuestros datos públicos muestran que el consumo recomendado de contenido cuestionable es significativamente menor al 1% y solo entre el 0,16% y el 0,18% de todas las reproducciones en YouTube provienen de contenido que viola los estándares», respondió por su cuenta.

Los videos recomendados que infringían las políticas de la plataforma tenían un 40% más de probabilidades de ser vistos que los videos deseados.
Los videos recomendados que infringían las políticas de la plataforma tenían un 40% más de probabilidades de ser vistos que los videos deseados.Unsplash

Castiga, pero lo recomienda

La investigación no solo reveló numerosos ejemplos de incitación al odio, desinformación política y científica y otras categorías de contenido que podrían infligir Reglas de la comunidad de YouTube. También descubrió muchos casos que pintan un cuadro más complejo. “Muchos de los videos que están marcados pueden caer en la categoría de lo que YouTube llama ‘contenido limitado’, que son videos que se alinean en los límites de sus reglas, sin romperlas realmente”, explican desde Mozilla.

Fuera del algoritmo, las políticas de comportamiento de YouTube son muy claras para sus usuarios, al menos así lo parecen. En su blog oficial, la plataforma detalla 11 violaciones de sus políticas. “Te mostramos algunas reglas de sentido común que te ayudarán a evitar problemas. Tómelos muy en serio y téngalos siempre en cuenta. No busques lagunas o detalles técnicos para evitarlos ”, recomiendan desde YouTube. Las categorías son:

  1. Seguridad infantil. «Trabajamos en estrecha colaboración con las autoridades y denunciamos las situaciones de menores en situación de riesgo».
  2. Robo de identidad. «Las cuentas que dicen ser otro canal o persona pueden ser eliminadas».
  3. Vida privada. «Si alguien ha publicado su información personal o ha subido un video de usted apareciendo sin su consentimiento, puede solicitar que se elimine el contenido».
  4. Derechos de autor. «Respete los derechos de autor. Solo cargue contenido que haya creado usted o que esté autorizado a usar. Esto significa que no debe cargar videos que no haya creado ni usar contenido en sus videos cuyos derechos de autor pertenezcan a otra persona».
  5. Amenazas “Se bloqueará la cuenta de los usuarios con comportamiento agresivo, amenazas, hostigamiento, hostigamiento, invasión de la privacidad, divulgación de información personal de terceros e incitación a cometer actos violentos o violar los términos de uso”.
  6. Metadatos y consejos engañosos. «No cree descripciones, etiquetas, miniaturas o títulos engañosos con la intención de aumentar el número de visitas».
  7. Acoso y acoso virtual. “No es aceptable publicar comentarios o videos abusivos en YouTube. Si el acoso va más allá de los límites y se convierte en un ataque malintencionado, será denunciado y retirado de la plataforma ”.
  8. Contenido violento o explícito. «Está prohibido publicar contenido violento o morboso cuyo objetivo principal sea causar un efecto escandaloso, sensacionalista o injustificado».
  9. Incitación al odio. «No permitimos contenido que fomente o justifique la violencia contra cualquier persona o contra grupos de personas por su origen étnico o raza, sexo, religión, discapacidad, edad, nacionalidad, condición de veterano, casta, orientación sexual o identidad de género».
  10. Contenido peligroso. «No publique videos que alienten a otros, especialmente a los niños, a hacer cosas que podrían dañarlos seriamente».
  11. Desnudos y sexo. «No admite pornografía ni contenido sexual explícito».

Soluciones posibles

En el informe, Mozilla también incluye una serie de recomendaciones para la plataforma. “No solo queremos diagnosticar el problema de la recomendación de YouTube, queremos solucionarlo. Las leyes de transparencia del sentido común, mejor supervisión y presión del consumidor pueden ayudar a mejorar este algoritmo ”, explican desde Mozilla. El desarrollado por Firefox ofrece a YouTube la posibilidad de publicar informes de transparencia frecuentes y completos que incluyen información sobre sus algoritmos de recomendación, así como brindar a las personas la opción de optar por no recibir recomendaciones personalizadas y promulgar leyes que exijan transparencia del sistema de inteligencia artificial. y proteger a los investigadores independientes.

“Durante años, YouTube ha defendido la desinformación sobre salud, la desinformación política, la incitación al odio y otros contenidos lamentables. Lamentablemente, la plataforma ha enfrentado las críticas con inercia y opacidad mientras persisten recomendaciones dañinas ”, concluye la investigación.

Puedes seguir a EL PAÍS TECNOLOGÍA en FacebookGorjeo o suscríbete aquí para recibir nuestro boletín semanal.