trustnet,-la-red-social-ficticia-que-involucra-a-los-usuarios-para-combatir-la-desinformacionTecnología 

Trustnet, la red social ficticia que involucra a los usuarios para combatir la desinformación

Investigadores exploran nuevos métodos para combatir a las fake news en las plataformas. “No hay una única forma correcta de hacerlo”, dice una de las especialistas.

El estudio propone que los usuarios abandonen el asiento de copiloto y participen en las revisiones. (Foto: Adobe Stock)

El caótico aterrizaje de Elon Musk en Twitter pone nuevamente sobre el tapete la discusión acerca de la moderación del contenido en las redes sociales. ¿Cómo dibujar los límites entre la anhelada libertad de expresión y la indeseable proliferación de discursos de odio y desinformación? Además, ¿quién debe estar a cargo de la revisión? ¿Sólo las empresas?

Leé también: En su primer día al frente de Twitter, Elon Musk anunció que creará un “consejo de moderación de contenidos”

Un estudio de campo elaborado en el MIT CSAIL, la división del Instituto Tecnológico de Massachusetts enfocada en computación e inteligencia artificial, propone una nueva postura, involucrando a los usuarios de redes sociales en la moderación de contenido y la lucha contra las fake news.

Desinformación en las redes sociales: el plan para que los usuarios agarren en volante

De acuerdo al informe publicado por la mencionada institución estadounidense, en el combate contra la desinformación es usual que los usuarios sean copilotos, y que la moderación esté a cargo de algoritmos y verificadores humanos (empleados tercerizados, habitualmente) que buscan contenido que viola las reglas de la plataforma y, en caso de encontrarlo, lo eliminan.

El hecho de que ese sea el status quo no significa que sea la forma correcta, o la única forma de hacerlo”, dice Farnaz Jahanbakhsh, investigadora del MIT CSAIL que junto a su equipo desarrolló una red ficticia, que llamaron Trustnet, para poner a prueba su idea. ¿De qué va la propuesta? Involucrar a más actores en la detección de información errónea, sacudiendo la habitual inacción de los usuarios.

¿Cómo funciona la red social en la que los usuarios combaten la desinformación?

Trustnet es un prototipo, con un funcionamiento similar al de Facebook, con artículos compartidos y la posibilidad de seguir amigos para ver lo que otros publican. La plataforma se distingue porque permite a los usuarios evaluar la precisión del contenido que aparece en sus perfiles, indicar en qué personas confían y filtrar publicaciones.

Leé también: Regular contenidos de redes sociales: los estudios pioneros ya existen y tienen otro diagnóstico

Además, antes de que un usuario pueda publicar cualquier contenido en Trustnet, debe calificarlo como exacto o inexacto, o dudar sobre su veracidad.

En el estudio de campo, Jahanbakhsh y sus colaboradores descubrieron que los usuarios son capaces de evaluar la desinformación en forma efectiva, sin capacitaciones para ello. El estudio con Trustnet se realizó con 14 participantes a lo largo de una semana.

Una alternativa a la moderación centralizada

La problemática de la moderación abarca diversos aspectos y en este marco emergen dudas de tenor filosófico, ético y operativo. ¿La revisión en manos de las empresas de redes sociales es eficiente para luchar contra la desinformación? ¿La centralización de esa tarea agrega más capas de desconfianza?

Según Jahanbakhsh, el estudio que realizaron propone un enfoque descentralizado de la moderación que puede conducir a una mayor confiabilidad del contenido en las redes sociales. “Es más eficiente y escalable que los esquemas de moderación centralizados y puede atraer a los usuarios que desconfían de las plataformas”, comenta la especialista.

Leé también: Un ejecutivo de Facebook responsabilizó a los usuarios por las noticias falsas en la red social

Muchas investigaciones sobre la desinformación asumen que los usuarios no pueden decidir qué es verdad y qué no, por lo que tenemos que ayudarlos. No vimos eso en absoluto. Vimos que las personas realmente tratan el contenido con inteligencia y que tratan de ayudarse entre sí. Pero estos esfuerzos actualmente no cuentan con el apoyo de las plataformas”, dice la investigadora, que en este proyecto trabajo junto a David Karger, experto en informática del MIT CSAIL, y a la profesora de Ciencias de Computación e Ingeniería de la Universidad de Washington, Amy Zhang.

Desinformación en las redes sociales: ¿por qué algunos usuarios prefieren que permanezca visible?

El estudio liderado por Jahanbakhsh aporta más conclusiones relevantes y clarificadoras. Una de ellas: que a veces los usuarios quieren ver las noticias erróneas. Eso sí: sabiendo qué son. “En ocasiones, quieren que aparezca información errónea en su feed para saber a qué están expuestos sus amigos o familiares, para saber cuándo y cómo hablar con ellos al respecto”, explica.

El objetivo de los investigadores es facilitar que los usuarios se ayuden entre ellos para evaluar la información errónea en las redes sociales, lo que reduce la carga de trabajo para todos. “Generalmente, la razón por la que las personas comparten desinformación no es porque no saben qué es verdad y qué es falso. Más bien, en el momento de compartir, su atención se desvía hacia otras cosas. Si les pides que evalúen el contenido antes de compartirlo, les ayuda a ser más perspicaces”, concluye la investigadora.

Usuarios y moderadores: ¿la solución definitiva para bofetear a la desinformación?

Si bien la experiencia con Trustnet demostró que los usuarios pueden tener un rol más protagónico en la lucha contra la desinformación en Internet, la autora del estudio dice que no el método no es la panacea. ¿El principal problema? Que las personas vean información sesgada, es decir, sólo afín a sus intereses y puntos de visto, machacando la pluralidad. En ese camino, Jahanbakhsh prepara un método que aliente a las personas a compartir contenido variado.

Leé también: Posverdad: las claves del problema de la desinformación y las fake news en Internet

La investigación fue presentada en la Conferencia ACM sobre Trabajo Cooperativo Asistido por Computadora y Computación Social.

Articulos relacionados