domingo, 29 de junio de 2014

Facebook manipuló el "news feed" de 689.000 usuarios para un experimento sobre emociones

experimento-facebook.png


Imagínate que tienes 100 amigos en Facebook. Existe una tendencia común (y errónea) de creer que verás en tu news feed lo que estas 100 personas publiquen... pero esto no es así. Facebook se encarga de filtrar las actualizaciones y sólo te muestra las de gente cercana o las que considere, por el motivo que sea, que serán potencialmente interesantes para ti. O al menos eso es lo que hace siempre que no tenga un experimento entre manos.


Facebook ha acaparado numerosas críticas en las últimas horas después de que se desvelara que, el algoritmo que utiliza normalmente para decidir qué te muestra y qué no, fue alterado manualmente para llevar a cabo un estudio. Concretamente, un grupo de ingenieros de la red social quería comprobar si existe "contagio de emociones" en Internet y, para ello, decidieron utilizar su posición ventajosa en Facebook.


¿Cómo lo hicieron? Con aproximadamente 689.000 usuarios como "ratas de laboratorio", durante una semana a algunos les mostraron principalmente actualizaciones de sus amigos con mensajes positivos. A otros, en cambio, les incrementaron el número de actualizaciones con mensajes y connotaciones negativas. Por si a alguien le interesa el resultado: sí, sí se produce contagio de emociones. Aquellos que veían mensajes positivos tendían a publicar más contenido de este tipo, y a la inversa.


¿Es ético manipular así?


Pero, dejando de lado el resultado, no deja de ser algo preocupante el que Facebook pueda alterar de esta forma lo que los usuarios ven. A fin de cuentas, está influyendo sobre ellos. ¿Tiene derecho a hacer que alguien se sienta peor, mostrándole actualizaciones negativas y tristes, por querer hacer un experimento? Eso es lo que critican desde algunos medios y hasta uno de los participantes en el estudio reconoció su preocupación sobre si el procedimiento era ético o no.


Desde el punto de vista de los términos de uso de Facebook, este tipo de experimentos están totalmente permitidos, ya que existe una cláusula en la que cedes el control de tus datos para experimentos e investigación. Pero ¿es justo que Facebook haga esto, sin avisar a los participantes del estudio? ¿Tuvo algún efecto este "filtrado" en los usuarios afectados? Para la segunda pregunta desconocemos su respuesta, pero para la primera... A mí, al menos, como usuaria de Facebook, no me hace ninguna gracia.


Enlace | Estudio (pdf)

Vía | AV Club


-

La noticia Facebook manipuló el "news feed" de 689.000 usuarios para un experimento sobre emociones fue publicada originalmente en Genbeta por María González.








from Genbeta http://ift.tt/1mtWp4S

via IFTTT

No hay comentarios:

Publicar un comentario