Todos tenemos un mal día de vez en cuando. Pero, ¿qué pasa si Facebook lo empeora -a propósito y sin informarte?

Los usuarios de Internet han reaccionado con enojo ante las noticias que los investigadores de Faceboook manipularon el contenido que se mostró a algunos usuarios con la intención de medir su respuesta emocional.



facebook lab ratas

Durante una semana a inicios del 2012, Facebook cambió la mezcla de contenidos en las noticias de casi 690.000 usuarios. A algunas personas se les mostraba una gran cantidad de publicaciones positivas, mientras que a otros se les mostraba más publicaciones negativas.



Los resultados del experimento, realizado por investigadores de Cornell, de la Universidad de California, en San Francisco, y Facebook, fueron publicados este mes en la prestigiosa revista académica Proceedings of the National Academy of Science.

El estudio encontró que los usuarios a los que se mostró el contenido más negativo eran más propensos a generar publicaciones negativas. Los usuarios del grupo positivo respondieron con publicaciones más optimistas.

¡Así que funcionó!   Facebook pudo cambiar con éxito el estado emocional de sus usuarios. Aunque los cambios de humor no fueron significativos, los investigadores argumentaron que las conclusiones tienen grandes consecuencias dado el tamaño y escala de la red social.

Los términos de servicio de Facebook le dan permiso a la compañía para llevar a cabo este tipo de investigación, pero muchos usuarios han reaccionado con enojo ante lo que ellos dicen que es un experimento social peligroso. No existen indicios que se le haya preguntado a los 690.000 individuos si a ellos les gustaría formar parte del estudio.

Facebook usa un algoritmo para determinar cuáles de las aproximadamente 1.500 publicaciones disponibles aparecerán en las noticias. La compañía cambia con frecuencia este programa para modificar la mezcla de noticias, historias personales y los anuncios que ven los usuarios.

El investigador de Facebook que diseñó el experimento, Adam D.I. Kramer, dijo en una publicación el domingo que la investigación fue parte de un esfuerzo para mejorar el servicio -no enojar a los usuarios.

«Puedo entender por qué algunas personas tienen preocupaciones al respecto, y mis coautores y yo estamos muy apenados por la forma en que el documento describió la investigación y la ansiedad que causó», escribió Kramer. «En retrospectiva, los beneficios de la investigación podrían no haber justificado toda esta ansiedad».

Un portavoz de Facebook dijo que la compañía realiza investigaciones con frecuencia para «mejorar nuestros servicios y para que el contenido que la gente ve en Facebook sea lo más relevante y atractivo posible».

«Nosotros consideramos cuidadosamente qué investigación hacemos y realizamos un fuerte proceso de revisión interna», dijo el portavoz en un comunicado. «No existe ninguna recolección innecesaria de los datos de las personas en relación con estas iniciativas de investigación y todos los datos se almacenan de forma segura».

Dados los términos de servicio de la compañía, no parece que Facebook se esté enfrentando a alguna implicación legal. Pero la naturaleza del conejillo de indias del experimento – y la decisión de ejecutarlo sin el consentimiento expreso de los participantes, plantea cuestiones éticas.

Susan Fiske, profesora de Princeton que editó la investigación, dijo que mientras que la investigación fuera «inventiva y útil», la protesta sugiere que tal vez no debería haberse llevado a cabo, informa cnn.com en su portal.

«Estaba preocupada», le dijo a The Atlantic, «hasta que le pregunté a los autores y ellos dijeron que su junta de revisión institucional local lo había aprobado -y aparentemente sobre la base de que Facebook al parecer manipula el alimentador de noticias de las personas todo el tiempo… Entiendo por qué la gente tiene preocupaciones. Creo que su enfado en realidad es con Facebook no con la investigación».