thumb

Das soziale Netzwerk Facebook manipulierte vor rund eineinhalb Jahren für eine Studie die Auswahl der Einträge im Nachrichtenstrom von einigen Hunderttausend Nutzern. Durch die Studie sollte herausgefunden werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Entsprechend wurden für Anwender die Einträge ihrer Facebook-Freunde vorgefiltert.

Die Untersuchungsergebnisse wurden erst vor kurzem publiziert. Dabei kamen die Autoren zum Schluss, dass Menschen, die mehr positive Nachrichten sahen, eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen - und umgekehrt. Insgesamt wurden im Jänner 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert. Es wurden laut Studie über drei Millionen Einträge von Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog „Psych Central“ auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Von Facebook gab es zunächst keine Reaktion.