Tecnología 24/02/2017 - 12:03 a.m. viernes 24 de febrero de 2017

Crean herramienta que detecta mensajes tóxicos

Google anunció la creación de Perspective, una herramienta de inteligencia artificial para que los medios de comunicación

La tecnológica ya ha probado el algoritmo con The New York Times y The Guardian, entre otros. / Shutterstock
Shutterstock

La tecnológica ya ha probado el algoritmo con The New York Times y The Guardian, entre otros.

EFE
online@laestrella.com.pa

Google anunció ayer la creación de Perspective, una herramienta de inteligencia artificial para que los medios de comunicación puedan detectar de forma automática los comentarios tóxicos e irrespetuosos.

‘Perspective es una tecnología que utiliza el aprendizaje automático (‘machine learning') para identificar los comentarios tóxicos. Y por toxicidad entendemos aquellos comentarios que llevan a alguien a abandonar una conversación', explicó en conferencia telefónica el responsable de la iniciativa, Jared Cohen.

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el ‘acoso en línea y la creciente toxicidad de las conversaciones en la red'.

‘Un número de individuos están dificultando la discusión civilizada y dinámica en las secciones de comentarios de plataformas y medios, lo que lleva a que mucha gente abandone la conversación. (...) Muchos medios han terminado cerrando esas secciones', añadió Cohen.

El directivo es presidente de Jigsaw, el laboratorio de ideas de Alphabet, antes conocido como Google Ideas- que ha sido el responsable del desarrollo de este proyecto de inteligencia artificial que se sustenta en la tecnología de aprendizaje automático de Google, Tensorflow.

Perspective analiza los comentarios y detecta el grado de toxicidad de las conversaciones, ofreciéndole a medios y plataformas de internet la información detallada en un marcador que va de cero a cien.

Cohen matizó que son los medios quienes tienen que decidir cómo usarán ese marcador: por ejemplo, para detectar los comentarios que deben ser revisados a mano, para mostrar a los lectores ese grado de toxicidad o bien permitirles que filtren los comentarios en función del nivel que están dispuestos a tolerar.

¿Y cómo sabe el algoritmo qué comentarios son tóxicos? El algoritmo compara los comentarios analizados con otros que anteriormente fueron categorizados como tóxicos.

También dispone de un sistema que se corrijan evaluaciones erróneas.

Cuanta más información maneje, más atinado será su juicio.

Cohen subrayó que Perspective está en ‘sus primeros días' y ‘muy lejos de ser perfecto', pero que irá mejorando a medida que disponga de más datos para entrenar su precisión.

comments powered by Disqus