La tecnología que busca detener el cibermatonaje

Esta es la historia interna de cómo expertos en la red social Facebook, investigadores en inteligencia artificial del prestigioso MIT de EE.UU. e incluso miembros del grupo de hackers Anonymous están a la caza de soluciones a un problema cada vez más complejo.

por Emily Bazelon / The Atlantic / Ilustración: Marcelo Escobar

En los anales de la malicia que se da en la educación básica, la página de Facebook “Iniciemos el drama” merece mención especial. La creadora del sitio -nadie sabe su nombre, pero todos creían que era una niña- tenía un diabólico talento para sembrar conflicto en la Escuela Woodrow Wilson, en Middletown (EE.UU.). Sabía cómo usar la web para sacar de quicio a su audiencia e inducir a los niños a terminar amistades y comenzar rencillas.

Clipboard01En contraste con redes sociales como Twitter, Facebook requiere que sus usuarios se inscriban con sus nombres reales. Sin embargo, la autora burló fácilmente la norma, al abrir su sitio con una dirección de email especialmente creada que no revelaba su identidad. Envuelta en el anonimato, transmitía crueles rumores sin enfrentar consecuencias. Empezó con algunos chismes y pronto tuvo más de 500 seguidores.

¿Qué niña perdió la virginidad?, ¿qué niño le había pedido a una niña que le enviara una foto desnuda?, eran algunos de los tópicos. Era muy ingeniosa en instigar enfrentamientos. Subía fotos de dos niñas lado a lado con la lectura “¿Quién es la más bonita?”. Bajo las imágenes, los seguidores votaban. Uno de esos concursos generó 109 comentarios en tres días e intercambios de mensajes odiosos entre las “competidoras”. La disputa casi generó una pelea a golpes afuera de la escuela.

Facebook ha creado su marca al lograr que sus usuarios tengan un estándar de decencia. “No intimidarás, amenazarás o acosarás a ningún usuario”, reza el mandato al cual las personas deben suscribirse cuando se inscriben en Facebook. Los usuarios también deben acceder a no falsificar sus identidades o postear contenido que inspire el odio o que contenga desnudez o violencia explícita.

Justin Carbonella, de la Oficina de Servicios Juveniles (OSJ) de Middletown, siguió el procedimiento de Facebook para presentar una denuncia, haciendo clic en varios menús. Y esperó. Y esperó. “Fue como poner un mensaje en una botella y tirarla al océano”, dice. Pero el sitio siguió. Presentó otra denuncia que también pareció irse al fondo del océano.

¿Qué se puede hacer para combatir esta crueldad en línea? ¿Qué pasa realmente cuando se envía una denuncia a Facebook? Esas preguntas me llevaron a los cuarteles de Facebook, a un laboratorio del Instituto de Tecnología de Massachusetts (MIT) y al grupo de hackersAnonymous.

Los métodos de Facebook

La gente de Facebook que aplica el poder del sitio ante quejas por contenidos integra sus equipos de “Operaciones de usuarios”. Dave Willner, director de políticas de contenido, explica que “el matonaje es difícil de definir, sobre todo cuando es algo escrito. El tono de voz desaparece”. Me dio un ejemplo de una denuncia sobre un posteo que decía “El la embarazó”. ¿De quién se trataba? ¿Qué quería decir el autor? Mirando la pantalla, Willner no podía saberlo.

En un intento de imponer orden, se sigue una regla básica: si te quejas ante Facebook de que tú eres acosado o víctima de matonaje, el sitio cree tu palabra. “Si el contenido se relaciona a ti, no intentamos decidir si realmente es mal intencionado. Lo eliminamos”, dice Willner. Sin embargo, las otras quejas de padres o funcionarios como Carbonella son tratadas como “reportes de terceras partes” que se deben dirimir.

Nick Sullivan, miembro del equipo, me dio una demostración: abrió el software que usa para resolver reportes. Navegó por las quejas con impresionante rapidez, decidiendo con poca deliberación qué eliminaba. Le pregunté si pasaba 10 minutos en algún reporte complejo y replicó: “Optimizamos para medio segundo. Tu tiempo promedio para decidir es de un segundo o dos”.

Eso me hizo recordar “Iniciemos el drama”. Seis meses después de que Carbonella enviara sus reportes, la página seguía operando. No había sido creada con el nombre real del usuario, ¿acaso no era una clara violación de las reglas de Facebook? Sullivan entró e hizo clic en el historial que opera tras bambalinas en el sitio y al cual el software tiene acceso. Se abrió una ventana que mostraba varias denuncias presentadas correctamente, pero en el historial había una nota indicando que futuros reportes serían ignorados. Nos quedamos mirando la pantalla. Willner rompió el silencio. “Alguien cometió una equivocación”, dijo y con un clic eliminó la página. Con millones de reportes a la semana, no extraña que quejas como la de Carbonella se extravíen.

En mi visita aprendí que el sitio había evolucionado desde una abolición total de quienes rompían las reglas hacia una “experiencia de usuario más limitada de forma temporal”. Después de todo, si te expulsan puedes volver a inscribirte con otro nombre falso. Hoy Facebook experimenta con reprimendas: por ejemplo, puede castigar a un usuario por abrir un grupo que aliente el matonaje, prohibiéndole que pueda crear cualquier otro grupo por un mes o dos.

Según un estudio interno, 94% de los usuarios cuyo contenido generó una queja nunca había sido reportado antes. Como dice Willner, la “reincidencia es baja”. ¿La razón? El arma que el sitio tiene sobre los usuarios es que su “perfil tiene valor para ellos. Es como si tuviéramos un rehén”. Eso no me sorprendió: en mi reporteo, los alumnos decían preferir ser suspendidos de la escuela a sufrir el mismo destino en Facebook .

Inteligencia artificial en el MIT

Facebook aún no tiene un algoritmo que determine desde un principio si un posteo busca acosar. Henry Lieberman, un científico computacional experto en inteligencia artificial del MIT, apunta a crear uno.

Hace dos años, varias noticias sobre matonaje lo hicieron pensar sobre su propia miseria en la escuela. El y sus estudiantes analizaron en YouTube miles de comentarios de videos y un millón de posteos de la red social Formspring que los mismos usuarios y moderadores habían calificado como matonaje. La primera conclusión fue que los matones no son muy creativos, ya que casi todos los ataques encajaban en seis categorías: apariencia personal, inteligencia, raza, etnicidad, sexualidad y aceptación/rechazo social.

Con estos datos, construyeron una “base de conocimiento de sentido común” llamada BullySpace. Es un repositorio de palabras y frases que podrían ser integradas a un algoritmo para analizar textos y detectar matonaje. Puede ser usado para reconocer palabras como “gordo” o “mujerzuela”, pero también determinar cuándo el uso de términos comunes sugiere la intención de insultar.

Lieberman me dio un ejemplo: “¡Te comiste seis hamburguesas!”. La palabra “hamburguesa” no indica cibermatonaje. “Pero la relación entre ‘hamburguesa’ y ‘seis’ no es neutral”, afirma este experto que no comercializa el sistema. BullySpace puede analizar la relación. Para un niño obeso, el mensaje podría ser cruel fácilmente (también reconoce más de 200 afirmaciones basadas en estereotipos de género y sexualidad).

Al ingresar sets de datos de los posteos en YouTube y Formspring, BullySpace identificó casi 80% de los insultos. Otra herramienta de Lieberman es una especie de control de tráfico aéreo, con un tablero que muestra en qué parte de la red un evento de matonaje se vuelve un riesgo de “accidente múltiple”, con muchos usuarios añadiendo contenidos, tal como ocurría con “Iniciemos el drama”.

“Por ejemplo, la semana antes de los bailes de graduación, puedes ver una explosión de matonaje contra adolescentes que son gays o lesbianas. Con nuestra herramienta, puedes analizar cómo se propaga y rastrear el brote hasta su fuente”, agrega Lieberman.

Hackers al rescate

Lanzado hace 10 años, el grupo de hackers Anonymous es más conocido por su oposición a la censura en internet. El grupo ha atacado los sitios web del Ministerio de Defensa de Siria, el Vaticano, el FBI y la CIA. Pero algunos integrantes tienen un espíritu más de Robin Hood y a fines de 2012 cabalgaron al rescate de una niña de 12 años que sufrió un temporal de odio en Twitter.

Su error fue seguir los posteos de un chico de 17 años al que no conocía y luego dejar de seguirlo cuando publicó dichos que a ella le parecieron groseros. El chico se ofendió y junto a tres amigos salieron en su persecución. Amenazaron con violarla e incluso le dijeron que se suicidara. Ella vivía lejos de los chicos, así que su integridad física no estaba en peligro, pero estaba tan preocupada que buscó ayuda en línea, súplica que llegó a oídos de otra usuaria llamada Katherine y un miembro de Anonymous llamado Ash.

Ash descubrió los nombres reales de los matones y que eran estudiantes de secundaria en Texas. Luego reunió capturas de pantalla de sus tuiteos, junto con sus nombres e información de las escuelas a las que asistían y lo liberó todo en una divulgación pública conocida como “dox”. La acción hizo que los culpables recibieran cientos de mensajes en contra y terminaron pidiendo perdón, además de generar una investigación policial.

Para Ash y Katherine, quienes no tienen experiencia trabajando con adolescentes, fue el comienzo de #OpAntiBully (@OpAntiBullyInfo), operación que provee enlaces para presentar denuncias antimatonaje. Ash dice que hasta 1.000 personas se reúnen para reportar usuarios abusivos o apoyar víctimas.

En un mundo en línea ideal, defender a los adolescentes vulnerables no debería depender de Anonymous. Pero las redes sociales aún presentan un terreno engañoso para los jóvenes, con trampas plantadas por otros menores. Mi visión es que, como padres, deberíamos exigir más de estos sitios, haciéndolos responsables de hacer cumplir sus propias reglas. Después de todo, junto a nuestros hijos somos los consumidores de estos sitios. Y como prueba la labor de Lieberman en el MIT, es posible tomar acciones más fuertes. Si a Facebook y Twitter no les gusta la solución del MIT, seguramente tienen los recursos para inventar alguna propia.

http://diario.latercera.com/2013/03/09/01/contenido/tendencias/26-131655-9-la-tecnologia-que-busca-detener-el-cibermatonaje.shtml

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s