Studie 14. Juli 2014 von

Was uns Facebooks Experimente lehren

Jetzt ist die Empörung groß: Facebook experimentiert mit unseren Gefühlen, wie aus einer jüngst veröffentlichten Studie hervorgeht. Damit steht Facebook nicht allein, Medien und IT-Unternehmen machen es jeden Tag. Es führt aber vor Augen, dass wir weder Einblick noch Kontrolle über die Algorithmen der Unternehmen haben, die unsere Daten nutzen.

Die Reaktionen auf die Facebook-Studie zur „Übertragbarkeit von Stimmungen“ sind faszinierend. (Wer von dieser Studie noch nichts gehört hat, kann hier nachlesen.) Wie schon mehrfach angemerkt wurde, sind A/B-Tests weit verbreitet, die zwei Gruppen mit unterschiedlichen Inhalten bilden. Auch hat Facebook schon lange Zeit damit experimentiert, wie sich die Einstellungen und Verhaltensweisen von Menschen beeinflussen lassen. So zeigte eine frühere Studie, dass sich Entscheidungen von Facebook auf das Wahlverhalten von Nutzern auswirken könnten. Warum führte also gerade die jetzige Studie zu einem Aufschrei der Empörung?

Facebooks Experiment

In der Anfang Juni 2014 veröffentlichten Studie über „emotionale Ansteckung“ untersuchte ein Forscherteam im Auftrag von Facebook, wie sich positiv oder negativ wahrgenommene Inhalte bei Facebook verbreiten. Für das Experiment änderte Facebook im Januar 2012 bei etwa 690.000 Nutzern, welche Inhalte sie als Neuigkeiten zu sehen bekommen. Die Forscher vermuteten: Wer positive Neuigkeiten sieht, werde eher selbst Positives schreiben, und umgekehrt. Das Experiment mit zwei Gruppen (A/B-Test) bestätigte das, wenn auch in nur geringem Maß.

Als ich einige Menschen dazu befragte, wurden mir vor allem zwei Gründe genannt: Das seelische Wohlbefinden der Menschen sei unantastbar; Forschung sei etwas anderes als Werbe- und Vermarktungspraktiken. Ich finde keine dieser Antworten zufriedenstellend.

Eine Studie wird zum PR-Debakel

Facebooks Forschungsteam arbeitet nicht losgelöst vom Unternehmen und seinem Produkt. Wenn es forscht und Ergebnisse veröffentlicht, wird vorausgesetzt, dass sie zur positiven Entwicklung der Firma beitragen. Hätte Facebook geahnt, welches PR-Desaster das Experiment in der Öffentlichkeit auslösen würde, hätte es die Durchführung und die Veröffentlichung der Ergebnisse nie zugelassen. Man kann die jetzt intern bei Facebook geführten Auseinandersetzungen und Schuldzuweisungen nur erahnen, aber sicher sein, dass die PR-Abteilung von den Forschern nun Stillschweigen fordert.

Das Experiment war meines Erachtens als Studie angelegt, die Facebook nützen sollte. Was genau wurde aber damit bezweckt? Aus den Kommentaren von Adam Kramer entnehme ich, dass man herausfinden wollte, ob sich positive oder negative Einträge auf die Stimmung von Nutzern auswirken, nachdem sie auf Facebook waren. Mit anderen Worten: Facebook will seine Nutzer auf der Plattform halten. Fühlen sie sich nach dem Besuch der Plattform aber schlechter als zuvor, kommen sie wahrscheinlich nicht so häufig wieder. Es liegt in Facebooks ureigenem Interesse, wenn die Nutzer die Seite mit einem guten Gefühl verlassen. Die Studie nun lässt darauf schließen, dass sich negativ oder positiv gestimmte Inhalte auf die Empfindung der Nutzer auswirken. Eine mögliche Schlussfolgerung für das Produkt Facebook liegt nun darin, als negativ empfundene Inhalte in den Hintergrund zu drängen. Wahrscheinlich brächte das sowohl für die Nutzer als auch für Facebook selbst einen Vorteil.

Man kann lange darüber diskutieren, ob dies tatsächlich Sinn und Zweck der Studie war. Bleiben wir aber einen Moment bei dieser Idee und nehmen wir an, Facebook hätte vor der Studie einen negativen Eintrag auf drei positive angezeigt. Im Rahmen der Studie wird nun ein negativer auf zehn positive Beiträge angezeigt. Wenn dem so ist, stellt sich die Frage, ob das Ergebnis es rechtfertigt, die Daten der Nutzer eine Woche lang zu manipulieren. Wem steht diese Entscheidung zu?

Facebook wählt Inhalte jeden Tag aus

Es wird viel über mögliche Schäden gesprochen, den die Studie hätte anrichten können – von Selbstmorden und anderen Beeinträchtigungen der psychischen Gesundheit. Dann jedoch müssten wir auch nach dem Schaden fragen, den die regulär angezeigten negativen Einträge hervorrufen. Wenn wir glauben, dass diejenigen, die aufgrund der Manipulation mehr negative Einträge zu lesen bekamen, psychisch darunter gelitten haben, dann müssen wir auch davon ausgehen, dass die negativen Einträge auf Facebook, die dort Woche für Woche zu lesen sind, noch wesentlich schlimmere Auswirkungen haben. Wie aber verbuchen wir dann die Vorteile, falls Facebook als Konsequenz der Studie positive Einträge massenhaft in den Vordergrund rücken würde?

Das Problem ist natürlich, dass Facebook sich nicht in die Karten gucken lässt. Wir wissen nicht, was es mit der Studie macht. Wir wissen nur, was in den „Proceedings of the National Academy of Science“ zu lesen ist, und das ist nicht gerade viel.

Wenn Facebook seinen Nutzern nun verstärkt Inhalte anzeigen würde, die sie positiv stimmen, sollte uns das glücklich machen? Was würde es bedeuten, erreichten uns die frohen Botschaften unserer Freunde eher als die schlechten, die glückliche Geburt des Nachwuchses und der schöne Abend in der Stadt mit größerer Wahrscheinlichkeit als depressives Geschreibsel und Auslassungen über gescheiterte Beziehungen? Wenn Alice glücklicher ist, weil sie nichts von Bobs Problemen weiß – von denen Facebook entschieden hat, sie ihr vorzuenthalten –, sind wir dann bereit, Bobs Hilferuf zu opfern? Es ist eine schwere ethische Entscheidung, die letzlich jeder Auswahl von Inhalten zugrunde liegt. Die Wahrheit ist, dass Facebook diese Auswahl jeden Tag trifft, ohne dabei kontrolliert zu werden, ohne Transparenz und ohne dass wir darin informiert eingewilligt hätten.

Auch Nachrichtenseiten manipulieren unsere Gefühle

Wenn Facebook aktiv modifiziert, was wir zu sehen bekommen, wird dies meist als ein Problem des Marketings auf Facebook angesehen. Doch bei einem Großteil dessen, was Facebooks Algorithmen tun, geht es allgemein darum, Inhalte auszuwählen, die der Nutzer nach Facebooks Meinung sehen möchte. Die Algorithmen entscheiden darüber, welche Postings von welchen Freunden man zu sehen bekommt. Facebook möchte, dass man sich Tag für Tag aufs Neue einloggt, tut dies also nicht für Marketingzwecke. Sie möchten dich glücklich machen. Sie möchten dich nicht überfordern. Facebooks alltägliche Algorithmen sind also darauf ausgerichtet, die Gefühle der Nutzer zu manipulieren. Welche Faktoren dort hineinspielen? Wir wissen es nicht.

Facebook ist auch keineswegs allein bei der algorithmischen Vorhersage, welche Inhalte man sehen möchte: Jedes Empfehlungssystem gibt bestimmten Inhalten Vorrang vor anderen. Vergleichen wir also das, was wir von dieser Studie wissen, mit den Standardpraktiken: Von Nachrichtenseiten bis zu sozialen Netzwerken verwenden die meisten Plattformen in irgendeiner Weise Algorithmen, die anzeigen, auf welche Inhalte die meisten Menschen klicken. Medienunternehmen bringt das dazu, sogenannte Listicals, aufmerksamkeitsheischende Überschriften und Nachrichten über spektakuläre Autounfälle zu produzieren. Was bringt mehr Seitenaufrufe: eine ausführliche Analyse über die Ereignisse in Syrien oder die 29 niedlichsten Tiere?

Manipulation wird akzeptiert, Manipulation zuzugeben nicht

Medien wissen seit jeher, dass sich mit Panikmache und Anzüglichkeiten gut Zeitungen verkaufen lassen. 4chan lehrte uns, dass es auch mit Groteskbildern und niedlichen Kätzchen funktioniert. Online bedeutet das, dass Berichte über Kindesentführungen, gefährliche Inseln voller Schlangen sowie Sexskandale am häufigsten angeklickt, retweeted, gefavt und so weiter werden. Eine Klickbait-Industrie ist entstanden, die uns mit miesesten Inhalten als vermeintlichen News ködert.

Wer hätte das gedacht: Wer von Medien umgeben ist, die absichtlich Ängste schüren, bekommt Angst. Man fürchtet sich vor falschen Dingen, panische Empörung entsteht. Dennoch glauben wir als Gesellschaft, dass es für Nachrichtenmedien und ihre Klickbait-Brüder akzeptabel sei, die Gefühle der Menschen durch Schlagzeilen und die behandelten Themen zu manipulieren. Und wir finden generell nichts daran, dass Algorithmenentwickler den vielgeklickten Inhalten Vorrang vor anderen Inhalten einräumen – ganz gleich welchen psychischen Preis der Einzelne oder die Gesellschaft dafür zahlen muss. Was aber unterscheidet diese Praxis vom Facebook-Experiment, abgesehen davon, dass die Medien für diese Manipulationspraktiken keine Rechenschaft ablegen?

Es scheint uns hinnehmbar, wenn es mit einem Schulterzucken heißt, man räume beliebten Inhalten Priorität ein – solange man nicht öffentlich die Absicht bekundet, die Gefühle von Nutzern manipulieren zu wollen, damit sie weiterhin Inhalte und Werbung konsumieren. Und es ist offensichtlich auch akzeptabel, Menschen zu Werbezwecken zu manipulieren, denn es gehört zum Geschäft. Wenn aber Forscher zugeben, dass sie herausfinden wollen, ob sie die Emotionen von Menschen beeinflussen können, stehen sie massiv in der Kritik. Das lässt darauf schließen, dass die Praktiken als solche zulässig sind, es aber nicht akzeptiert wird, wenn man die Absicht dahinter zugibt und die Sache transparent macht.

„Aber Forschung ist etwas anderes“

Das Gegenargument zur Position, all das gehöre zum üblichen Geschäft lautet, dass für Forschung und Wissenschaft andere Maßstäbe gelten würden. An dieser Stelle wird gern auf die hochgeistige Idee reiner Forschung und ihren exklusiven Anspruch auf ethische Standards verwiesen. Müssen wir eine ernste Diskussion über die informierte Einwilligung führen? Unbedingt. Müssen wir die ethischen Entscheidungen von Unternehmen zum Umgang mit Nutzerdaten diskutieren? Unbedingt. Dennoch bin ich nicht der Meinung, dass die Diskussion ausschließlich das betrifft, was als „Forschung“ klassifiziert wird. Ebenso wenig bin ich der Meinung, dass die akademische Welt das Maß aller Dinge liefert.

Akademische Forschung hat viele Probleme, die zu berücksichtigen sind: Statt kritisch und gemeinsam über die Ethik ihrer Forschungsprojekte nachzudenken, besteht der wichtigste Ansporn für Forscher zunächst darin, ihre Projekte durch die institutionellen Review Boards der Einrichtungen – die Kommissionen für Forschungsethik – zu bekommen. Diesen geht es in erster Linie darum, die Universitäten zu schützen, nicht aber darum, einen ethischen Rahmen zu erarbeiten. Wissenschaftliche Zeitschriften nehmen gern Datenmaterial der Unternehmen, auch wenn es nicht reproduzierbar ist. Selbst im Post-Papier-Zeitalter haben sie lächerliche Obergrenzen für die Beitragslänge, was die Forscher davon abhält, ihre Methode in allen nötigen Details darzustellen.

Es gibt hier strukturelle Probleme: Die stupide akademische Konkurrenz und das Spiel des Peer Review führen dazu, dass Forscher laufende Studien kaum mehr mit Kollegen besprechen wollen, um ernsthaft Kritik zu bekommen. Statuskämpfe in der Wissenschaft belohnen diejenigen, die Exklusivzugriff auf private Daten bekommen und veranlassen den Rest zur Schelte daran. Für Unternehmen besteht in der Regel wenig Anreiz zum guten Umgang mit Forschern, solange deren Forschung nicht ihr Prestige erhöht, Personal rekrutiert oder Produkte verbessert.

Forschung geht immer mit Trade-offs einher

Die amerikanischen Review Boards garantieren also nicht, dass ein Forschungsprojekt ethisch vertretbar ist. Ethik steht dort weder auf der Prüfliste noch ist sie eine Universalie. Gefordert wäre es aber, ein Forschungsprojekt genauestens auf seine Vor- und Nachteile zu untersuchen und eine Gewissensentscheidung zu treffen. Die Ansichten darüber, was ethisch ist, klaffen auch in der Wissenschaft weit auseinander. Forscher müssen daher systematisch darüber nachdenken, ob und wie ihre Praktiken die Welt in einer Weise verändern, die den Menschen nutzt oder ihnen schadet.

Es gibt viele Studien, die für ihre Teilnehmer ernsthafte Folgen haben. Ich denke beispielsweise an die Arbeit einiger meiner Kollegen mit Kindern, die Opfer von sexuellem Missbrauch wurden. Kinder dazu zu bringen, über diese schrecklichen Erfahrungen zu sprechen, kann einen psychischen Tribut fordern. Dennoch ist es von großem Nutzen für die Gesellschaft, wenn wir ihre Erfahrungen besser verstehen. So akzeptieren wir diesen Trade-off. Wenn ich sehe, wie meine Kollegen sich unmittelbar nach den Befragungen (und manchmal noch lange danach) darum bemühen, diesen Kindern durch Beratungsgespräche zu helfen, wird mir warm ums Herz. Sie denken lange und ernsthaft über jede einzelne Frage nach, die sie stellen werden, und wie sie das tun. Dennoch würden die meisten Review Boards ein solches Projekt nicht genehmigen, weil sich keine Universität an das Thema Kinder und sexueller Missbrauch herantraut. Forschung zu betreiben, geht mit solchen Trade-offs einher; es ist mühevoll und risikoreich, einen ethischen Weg zu finden.

Facebook-Nutzungsbedingungen scheinen alternativlos

Man macht es sich daher zu leicht, wenn man auf die Einwilligung von Teilnehmern hinweist und die Verantwortung für die Folgen seiner Forschung nicht übernehmen will – wie man es sich auch zu leicht macht, wenn man lediglich auf institutionelle Genehmigungen hinweist. Bei jeder Studie, die mit Manipulationen arbeitet – was in Wirtschaftswissenschaft, Psychologie und anderen Sozialwissenschaften häufig vorkommt – sind die Teilnehmer nur bedingt darüber informiert, worauf sie sich einlassen.

Man denkt also vielleicht, man wüsste, wozu man zugestimmt hat, aber weiß man das wirklich? Es gibt auch Studien, bei denen die Menschen bewusst nicht darüber informiert werden, woran sie teilnehmen, beispielsweise zur Erforschung von Diskriminierung. Was sind also die akzeptablen Schattenseiten? Wann ist es in Ordnung, ganz und gar auf eine Einwilligung zu verzichten? Was bedeutet es, informiert zu werden? Wann reicht das nicht aus? Hier gibt es keine einfachen Antworten.

Ich will damit nicht sagen, dass Facebook hier richtig abgewogen hat. Dennoch halte ich die Reaktion aus der Wissenschaft für unredlich, dass Forschung allein bei einer institutionellen Genehmigung und informierter Einwilligung zulässig sei. Was rechtlich betrachtet ein Vertrag darstellt, ist deshalb noch keine wirkliche Einwilligung. Die meisten Menschen haben sich mit den Nutzungsbedingungen von Facebook auf einen Vertrag eingelassen, weil sie dachten, sie hätten keine andere Wahl – nicht weil sie allen Klauseln tatsächlich zustimmen würden. Daher die Aufregung.

Wachsende Angst vor Manipulation durch Big Data

Je mehr man die Reaktionen auf die Facebook-Studie beobachtet, desto mehr drängt sich der Gedanke auf, dass die Empörung mit der Studie selbst nichts zu tun hat. Es wächst der Unmut gegenüber Facebook und anderen Unternehmen, die Daten über Menschen anhäufen und nutzen. Big Data zieht Groll auf sich. Die Studie lieferte Munition dafür, denn es ist schwer, über Gefahren und Schäden nur abstrakt zu reden.

Wohl oder übel glauben die Leute gemeinhin, dass Facebook von einem wohltätigen Diktator betrieben wird und dazu da ist, mit anderen Leuten in Verbindung zu treten. In gewisser Weise stimmt das ja auch, doch Facebook ist natürlich auch ein Unternehmen, eine Aktiengesellschaft; es muss Wege finden, mit jedem Quartal mehr Gewinne einzufahren. Das bedeutet, dass Facebooks Algorithmen nicht nur den Nutzer direkt ansprechen, sondern ihn auch zur steten Wiederkehr animieren sollen.

Als Nutzer hat man eine abstrakte Idee davon, wie das funktioniert, weiß es aber nicht wirklich und will es im Grunde auch lieber nicht wissen. Der Nutzer will, dass der Hot Dog gut schmeckt. Ob es nun Forschung oder operatives Geschäft genannt wird, als Nutzer will man es lieber nicht als Manipulation verstehen. Wer dann herausfindet, woraus Soylent Green besteht, ist empört. Nicht um die Studie geht es hier, sondern um die unterschwellige Dynamik, mit der Facebook seine Geschäfte und seine Plattform betreibt und Entscheidungen trifft, die nichts damit zu tun haben, wie sich die Nutzer Facebook wünschen. Es geht hier nicht um Forschung, es ist eine Machtfrage.

Warum ich Facebook hasse, die Veröffentlichung aber begrüße

Ich verstehe also die Wut. Ich für meinen Teil hasse Facebook und tue das schon lange, auch wenn ich die Bedeutung der Plattform im Leben vieler Menschen anerkenne und untersuche. Persönlich hasse ich es, dass Facebook glaubt, es könne besser als ich entscheiden, welche Postings meiner Freunde ich sehen solle. Ich hasse es, dass sich die Seite nicht sinnvoll steuern und kontrollieren lässt. Und mir ist schmerzlich bewusst, dass meine sporadische Nutzung Facebooks Algorithmen so sehr durcheinandergebracht hat, dass ich in meinem Newsfeed ausnahmslos Müll finde. Ich verübele es Facebook, dass meine seltene Anwesenheit mir nur noch den Weg lässt, für Postings zu bezahlen, damit sie gesehen werden.

Meine spärliche Nutzung der Seite hat mich zu einem algorithmischen Pariah werden lassen. Wäre ich technisch weniger bewandert, würde ich mich von allen Freunden verlassen fühlen statt nur von einem Algorithmus, der mich für unwürdig erachtet. Auch weigere ich mich, dieses Spiel mitzuspielen, um vor dem Altar des Algorithmus gut auszusehen. Jedes Mal, wenn ich zum Umgang mit Facebook gezwungen bin, ärgere ich mich von neuem über die Manipulationen.

Es gibt darüber hinaus vieles, das ich an Facebook als Unternehmen und seinen Geschäften nicht mag. Dennoch bin ich froh darüber, dass Facebook begonnen hat, mit Wissenschaftlern zu arbeiten und deren Forschungsergebnisse zu veröffentlichen. Ich glaube, dass wir mehr Transparenz über die algorithmischen Funktionsweisen dieser Art von Systemen brauchen. Facebooks Bereitschaft zur Veröffentlichung war eine der wenigen Wege, auf denen wir Einblick nehmen konnten, was da vor sich geht. Vermutlich werden die wütenden Reaktionen über diese Studie das Unternehmen dazu veranlassen, jegliche Äußerung der Forscher gegenüber der Öffentlichkeit zu unterbinden.

Mein Gefühl sagt mir, dass Facebook nun ganz unbedarft auf die Situation reagieren wird, als sei das Vorgehen der Forscher die heikle Angelegenheit und nicht die Praktiken des Unternehmens selbst. Neben dem, was dies für die Wissenschaftler bedeutet, bin ich auch besorgt darüber, wie das längere Stillschweigen auf eine Öffentlichkeit wirken wird, die nicht weiß, was mit ihren Daten passiert, und die die Abwesenheit von Berichten über schreckliche Vergehen von Facebook so verstehen wird, dass das Unternehmen mit der Datenmanipulation aufgehört habe.

Es braucht Aufsicht über proprietäre Algorithmen

Da Informationsunternehmen nicht dasselbe wie Pharmaunternehmen sind, werden von ihnen keine klinischen Studien gefordert, bevor sie ein Produkt auf den Markt bringen. Sie können ihre Nutzer psychisch manipulieren so viel sie wollen, ohne die Öffentlichkeit auch nur entfernt darüber aufklären zu müssen, was sie da genau tun. Und als Öffentlichkeit können wir nur raten, was da hinter verschlossenen Türen vor sich geht. Hier besteht jede Menge Reformbedarf. Wir müssen herausfinden, wie eine sinnvolle Diskussion über Unternehmensethik möglich ist, ganz gleich, ob Unternehmen von Forschung sprechen oder nicht. Doch es wäre zu einfach, eine fehlende Genehmigung oder Einwilligung als Zeichen ethisch unvertretbarer Praxis zu sehen. Fast immer, wo solche Manipulationen stattfinden, fehlt mindestens eines von beiden. Sie erfolgen völlig ungehindert, weil sie schlicht nicht publiziert oder öffentlich gemacht werden.

Eine solche ethische Aufsicht ist kein leichtes Unterfangen; ich habe keine schnelle und einfache Lösung, wie sie umgesetzt werden könnte. Aber ich habe ein paar Ideen. Zunächst würde ich bei Unternehmen, die Nutzerdaten manipulieren, einen Ethikrat sehen wollen. Nicht um Forschungsprojekte abzusegnen, sondern um einen Überblick über alle proprietären Algorithmen zu bekommen, die sich auf Nutzer auswirken könnten. Bei Aktiengesellschaften könnten das auch bestehende Ethikkommissionen im Vorstand übernehmen. Ein solcher Rat sollte aber nicht nur aus Vorstandsmitgliedern bestehen, sondern auch Wissenschaftler und Nutzer miteinbeziehen.

Außerdem fehlt ein Mechanismus, der es Beschäftigten der Unternehmen ermöglicht, Informationen nach außen zu tragen. Ich habe erlebt, dass viele Angestellte von Unternehmen wie Facebook starke Bedenken über bestimmte algorithmische Entscheidungen haben, aber keinen Weg sehen, ihre Bedenken verantwortungswoll zu äußern, ohne sich gleich an die gesamte Öffentlichkeit zu wenden.

Das Problem heißt nicht allein Facebook

All das würde zwar nicht sämtliche Probleme lösen, und ich wäre auch verwundert, wenn alle Unternehmen diese Ideen freiwillig umsetzen würden – aber es ist sicherlich eine Überlegung wert. Vor allem aber müssten Nutzer wirklich Einfluss darauf nehmen können, was mit ihren Daten passiert, und ich würde es begrüßen, wenn sich ein Weg finden lässt, wie sie sich in diesen Prozessen äußern können.

Letztlich bin ich froh darüber, dass diese Studie eine heftige Debatte unter Wissenschaftlern und in der Öffentlichkeit ausgelöst hat. Aber ich fürchte, sie richtet sich nach dieser Studie allein gegen Facebook, statt dass wir differenziert diskutieren werden, wie eine sinnvolle ethische Kontrolle in Forschung und Praxis geschaffen werden kann. Die Grenzen zwischen Forschung und Praxis verwischen immer mehr, Informationsunternehmen wie Facebook zeigen das immer deutlicher. Abgrenzung hilft nicht weiter, wir müssen das Problem umfassend angehen. In der Zwischenzeit müssen wir von Unternehmen Rechenschaft fordern, wenn sie Menschen manipulieren, ob es nun als Forschung verkauft wird oder nicht. Wenn wir aber eine einzelne Studie zu sehr in den Mittelpunkt rücken, verlieren wir den Blick für die grundsätzlichen Probleme.

Dieser Artikel erschien zuerst bei Medium.com. Aus dem Englischen von Ina Goertz.

Avatar danah boyd

Danah Boyd beschäftigt sich als Wissenschaftlerin mit Privatsphäre, Jugendkultur, sozialen Netzwerken und Big Data. Sie arbeitet als Forscherin für Microsoft Research, an der New York University sowie am Berkman Center for Internet and Society der Harvard-Universität. Ihr Buch „It’s Complicated: The Social Lives of Networked Teens“ ist Anfang des Jahres erschienen und auch kostenlos online lesbar (PDF). Foto: Sage Ross, CC BY

Zum Thema bei iRights

6 Kommentare

  • 1 allesistpolitisch am 15. Jul, 2014 um 08:47

    ausgezeichneter Text mit sehr guten Ideen.

    Ich finde es gut, dass im Text oben eine Instanz gefordert die das überprüft. Es gibt Lebensmittelkontrolleure, Bankenaufsicht usw. Aber warum hier nicht? Das die Gesetzgebung hier absolut nachhängt ist in “Neuland” ja allen bekannt…

    Dem Text würde ich gern noch ein weiteren Aspekt hinzufügen.

    Bei Facebook ging es nie um die Nutzer und was das für ihr Leben bedeutet:

    “I am God, bitch -Facebook und das Ende des Zufalls”
    http://www.allesistpolitisch.de/i-am-god-bitch-facebook-und-das-ende-des-zufalls/

  • 2 5 Lesetipps für den 15. Juli - Netzpiloten.de am 15. Jul, 2014 um 08:49

    […] FACEBOOK iRights.info: Was uns Facebooks Experimente lehren: Facebook experimentiert mit unseren Gefühlen, wie aus einer jüngst veröffentlichten Studie hervorgeht. Damit steht Facebook laut Danah Boyd nicht allein. Auf iRights.info schreibt sie, dass Medien und IT-Unternehmen das jeden Tag ebenfalls machen. Es führt aber vor Augen, dass wir weder Einblick noch Kontrolle über die Algorithmen der Unternehmen haben, die unsere Daten nutzen. […]

  • 3 giovanni gruen am 15. Jul, 2014 um 14:57

    …ich postuliere einfach mal das letztendlich alle groesseren Unternehmen absichtlich mit solchen Algorithmen arbeiten und das facebook das PR-Desaster nicht vorhergesehen hat – sonst waere diese Studie zwar durchgefuehrt aber niemals veroeffentlich worden – laesst zumindest an der Kompetenz der Entscheider im Bereich Marketing zweifeln…

  • 4 nad am 15. Jul, 2014 um 17:02

    In the context of the remark:
    “Was aber unterscheidet diese Praxis vom Facebook-Experiment, abgesehen davon, dass die Medien für diese Manipulationspraktiken keine Rechenschaft ablegen?”

    “What makes their practice different? (Other than the fact that the media wouldn’t hold itself accountable for its own manipulative practices…)”

    the following citation from Wikipedia might be of interest:
    “However his stock with the Nazis had fallen so much that in December 1933 the Telegraph Union, the news agency owned by Hugenberg, was taken over by the Propaganda Ministry and merged into a new German News Office.[41] Hugenberg was allowed to remain in the Reichstag until 1945 as one of 22 so-called “guest” members, who were officially designated as non-party representatives. Given that they shared the assembly with 639 Nazi deputies they had no influence.[42]”

  • 5 marco tullney am 29. Jul, 2014 um 13:08

    Der Vergleich zwischen Facebook und den Newsseiten hinkt. Facebook lässt sich nicht beeinflussen, die Algos arbeiten automatisch und werten aus, wo man hinklickt. Wenn ich das wissen will, muss ich aber hinklicken. Die Newsseiten müssen machen, was läuft, damit sie erfolgreich sein müssen. Die Leute werden nicht dazu gezwungen, Katzenvideos zu teilen.

  • 6 Facebook in Links (Juli 2014) am 11. Aug, 2014 um 14:34

    […] Was uns Facebooks Experimente lehren […]