Google utiliza IA para combatir a los trolls de Internet

Uno de los mayores retos que enfrentan los sitios web, las organizaciones noticiosas y las redes sociales es el abuso y el acoso en línea. Desde el amanecer de Internet, los sitios han luchado contra los comentarios abusivos, tóxicos e inapropiados publicados en sus foros en línea. Con los millones de comentarios publicados, la organización de noticias rápidamente se sintió abrumada por la magnitud de los datos producidos.

Los sitios web y los editores se han vuelto tan preocupados por el volumen de comentarios vitriólicos y el temor de demandas que muchos han eliminado la posibilidad de publicar comentarios en sus sitios. Considere que el 72% de los usuarios de Internet en Estados Unidos han presenciado el acoso en línea, y casi la mitad han experimentado por sí mismos. Los sitios de medios sociales han estado bajo el fuego para controlar el discurso del odio y el abuso en línea de sus miembros. Los avances tecnológicos en la inteligencia artificial (IA) pueden finalmente proporcionar la respuesta.

Una pieza importante del rompecabezas

Jigsaw, una incubadora de tecnología de Google Parent Alphabet (NASDAQ: GOOG), ha desarrollado una red neuronal artificial, un sistema de AI que replica la estructura y la capacidad de aprendizaje del cerebro humano usando algoritmos y modelos de software. Usando esta tecnología, tiene como objetivo identificar y controlar comentarios abusivos en línea. Google y Jigsaw están haciendo el programa disponible de forma gratuita, y se está añadiendo a la biblioteca TensorFlow de Google y Cloud Machine Learning Platform. El producto, apodado Perspective, utiliza el aprendizaje profundo para tamizar a través de resmas de datos para detectar el acoso, los insultos y el discurso abusivo en los foros en línea en tiempo real. Jigsaw explica cómo funciona el programa:

    Los comentarios de las puntuaciones en perspectiva se basan en el impacto percibido que un comentario podría tener en una conversación, que los editores pueden utilizar para dar retroalimentación en tiempo real a los comentaristas, ayudar a los moderadores a ordenar los comentarios con mayor eficacia o permitir a los lectores encontrar más fácilmente la información pertinente. Lanzaremos más modelos de aprendizaje automático más adelante en el año, pero nuestro primer modelo identifica si un comentario podría ser percibido como “tóxico” en una discusión.

¿Besas a tu madre con esa boca?

Google y Jigsaw usaron los datos de comentarios de The New York Times Company (NYSE: NYT), Wikipedia y varios socios no identificados. A continuación, mostraron que los datos a los paneles de las personas y les hizo la tasa si los comentarios eran tóxicos. Ellos usaron estas respuestas humanas como datos de entrenamiento para el sistema AI, que proporcionará clasificaciones de una frase basada en su toxicidad en una escala de 100 y le permite probar el sistema. Escriba la frase “usted está ignorando información importante” las tasas de un 10%, “su madre usa botas de combate” ganó un 55%, mientras que “eres un idiota” obtiene una respuesta de 86% de toxicidad.

El New York Times informa que sólo tiene los recursos para permitir comentarios sobre el 10% de sus artículos. La compañía proporcionó los archivos de comentarios con la esperanza de ampliar su sección de comentarios y “aumentar la velocidad con la que se revisan los comentarios”. Con sólo 14 moderadores para repasar manualmente cada comentario, la tarea se volvió abrumadora, revisando en promedio 11.000 comentarios diarios.

También te podría gustar...