Durante los últimos dos años, millones de personas que buscaban vídeos de abuso infantil en el sitio web de Pornhub en el Reino Unido se han visto interrumpidas. 4,4 millones de veces, cuando alguien escribía palabras o frases asociadas con abuso, un mensaje de advertencia bloqueaba la página diciendo que dicho contenido era ilegal. Y en la mitad de los casos, un chatbot también decía a las personas dónde podían pedir ayuda.

Los mensajes de advertencia y el chatbot fueron implementados por Pornhub como parte de un programa de prueba realizado con dos organizaciones de protección infantil con sede en el Reino Unido para ver si se podía evitar que las personas buscaran contenido ilegal con intervenciones breves. Un nuevo informe que analiza la prueba, compartido exclusivamente con WIRED, dice que las ventanas emergentes provocaron una disminución en la cantidad de búsquedas de material de abuso sexual infantil (CSAM) y una mayor cantidad de personas informaron que buscaban apoyo para el comportamiento.

“El número real de búsquedas es bastante aterrador”, dice Joel Scanlan, profesor titular de la Universidad de Tasmania que dirigió la evaluación del chatbot Rethink. Durante la prueba de varios años, hubo 4.400.960 advertencias en respuesta a búsquedas relacionadas con CSAM en el sitio web de Pornhub en el Reino Unido; el 99 por ciento de todas las búsquedas durante la prueba no produjeron advertencias. “El número de búsquedas disminuyó significativamente durante el período de intervención”, dice Scanlan. “Así que los mensajes de prevención funcionan”.

Cada año se encuentran y eliminan de la web millones de imágenes y vídeos CSAM. Se comparten en las redes sociales, se comercializan en chats privados, se venden en la web oscura o, en algunos casos, se suben a sitios web de pornografía legal. Las empresas de tecnología y las empresas de pornografía no permiten contenido ilegal en sus plataformas, aunque lo eliminan con distintos niveles de efectividad. Pornhub eliminó aproximadamente 10 millones de videos en 2020 en un esfuerzo por eliminar material de abuso infantil y otro contenido problemático de su sitio web. New York Times Informe.

Pornhub, propiedad de la empresa matriz Aylo (anteriormente MindGeek), utiliza una lista de 34.000 palabras prohibidas en varios idiomas y con millones de combinaciones para bloquear las búsquedas de material de abuso infantil, afirma un portavoz de la empresa. El portavoz dice que esta es una forma en que Pornhub intenta lidiar con el contenido ilegal, y es parte de los esfuerzos de la compañía dirigidos a la seguridad de los usuarios, después de años de acusaciones de que alojaba videos de explotación infantil y no consentidos. Cuando la gente en el Reino Unido buscaba algún término en la lista de Pornhub, aparecían mensajes de advertencia y chatbots.

El chatbot fue diseñado y construido por Internet Watch Foundation (IWF), una organización sin fines de lucro que elimina el CSAM de la web, y la Lucy Faithfull Foundation, una organización benéfica que trabaja para prevenir la explotación sexual infantil. Apareció con mensajes de advertencia un total de 2,8 millones de veces. La prueba contó el número de sesiones en Pornhub, lo que puede significar que las personas fueron contadas varias veces y no las identificaron. El informe dice que ha habido una “disminución significativa” en las búsquedas de CSAM en Pornhub y que los chatbots y los mensajes de advertencia pueden haber desempeñado un papel, al menos “en parte”.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here