Found 14 bookmarks
Custom sorting
Facebooks Medienmacht: Acht Fragen zum „Kampf gegen Clickbait“
Facebooks Medienmacht: Acht Fragen zum „Kampf gegen Clickbait“
dass <a href="http://www.zeit.de/digital/internet/2016-08/clickbait-facebook-algorithmus-aenderung" rel="nofollow">Facebook auf seiner Plattform zukünftig bewusst irreführende Überschriften und Verlinkungen aktiv unterbinden will</a>.
will Facebook „authentische“ Inhalte sichtbarer machen.
welche Inhalte wie relevant für einzelne Nutzer sind und dementsprechend priorisiert
Seiten, von denen man schneller wieder zurückkehrt, sind vermutlich eher mit einer irreführenden Köderüberschrift versehen, als solche, auf denen Nutzer längere Zeit verbringen.
Beiträge, die von vielen angeklickt, aber von wenigen geteilt, geliket oder kommentiert werden, wertet Facebook als weniger wertvoll.
Hierfür wurden laut Facebook zunächst offenbar händisch zehntausende Überschriften als Clickbait kategorisiert.
Links, die von Seiten gepostet werden, welche häufig solche als Clickbait kategorisierten Überschriften verwenden, werden im Newsfeed nun niedriger eingereiht.
Wie definiert Facebook eigentlich Authentizität?
Welche Verweildauer auf einer angeklickten Seite wertet Facebook als „normal“?
Was ist eigentlich mit Menschen, die gerne Clickbait-Texte (z.B. auf <a href="http://i.imgur.com/bJW46Ac.png" rel="nofollow">Buzzfeed</a> oder <a href="http://dradiowissen.de/beitrag/social-media-focus-online-hat-erfolg-mit-polemischem-clickbait" rel="nofollow">Focus Online</a>) lesen?
Wie verträgt sich diese aufmerksamkeitsökonomische Diskriminierung mit den Grundrechten auf Meinungs- und Informationsfreiheit, von denen in den meisten Fällen auch Auslassungen und Übertreibungen gedeckt sind?
Wem gibt das Unternehmen Rechenschaft über Quantität und Qualität der diskriminierten Inhalte?
Wer überprüft die Treffsicherheit und die Einhaltung der von Facebook selbst gesetzten Kriterien?
Wie) Werden Seitenbetreiber darüber informiert, wenn der Algorithmus zuschlägt und die Plattform ihnen gezielt Reichweite entzieht?
Gibt es ein transparentes Verfahren für Seitenbetreiber, um sich gegen die Diskriminierung zu wehren und z.&nbsp;B. die Berücksichtigung kontextueller Faktoren zu verlangen?
·netzpolitik.org·
Facebooks Medienmacht: Acht Fragen zum „Kampf gegen Clickbait“
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
warum Facebook nackte Brüste zensiert, aber Hass und Hetze stehen lässt“.
Eva-Maria Kirschsieper, Cheflobbyistin von Facebook-Deutschland erklärte, dass man bei Facebook selbstverständlich für die 29 Millionen Nutzer in Deutschland Verantwortung trage, das sei eine „ungeheure Verantwortung“ und man nähme diese „sehr ernst“. Aber die ganze Gesellschaft sei für die Phänomene verantwortlich
Axel Wallrabenstein, als Chef der Lobbyagentur MSL auch Google-Lobbyist, sah ebenso wie Kirschsieper kein Problem bei den sozialen Medien, sondern alles als „gesamtgesellschaftliches Phänomen“.
Google-Lobbyist Wallrabenstein sah dann auch die Anonymität als das „große Problem“.
Social-Bots seien zudem kein Problem für Facebook, weil es dort über die Fan-Pages viele öffentliche Räume nebeneinander gäbe, während es bei Twitter ja nur einen gäbe
das Telemediengesetz erklären, das&nbsp;eindeutig gegen eine Klarnamenspflicht is
·netzpolitik.org·
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
Nach dem Trump-Sieg: Wie soziale Medien Wahlen beeinflussen
Nach dem Trump-Sieg: Wie soziale Medien Wahlen beeinflussen
in sozialen Medien wie Facebook ist die Darreichungsform für alle Medien gleich.
Ein von 15 Factcheckern geprüfter Artikel der "New York Times" kommt (zunächst) in der gleichen Anmutung <a href="https://www.buzzfeed.com/craigsilverman/how-macedonia-became-a-global-hub-for-pro-trump-misinfo?utm_term=.yrVVZp8Yz#.leA2Zr3eo" target="_blank" title="" class="spTextlinkExt text-link-ext lp-text-link-ext">daher wie ein von mazedonischen Teenagern</a> ausgedachter Quatschtext.
<a href="http://www.nytimes.com/2012/09/13/us/politics/social-networks-affect-voter-turnout-study-finds.html" target="_blank" title="" class="spTextlinkExt text-link-ext lp-text-link-ext">Die Forschung deutet auch darauf hin</a>, dass erfundene Informationen in sozialen Medien meinungsbildend wirken
Es geht weniger um Informationsverbreitung als um Gemeinschaftsbildung.
Einschlag in Richtung "gefühlte Wahrheit".
Aber man kann auf Filterblasen leicht hereinfallen, denn Menschen neigen zur Überhöhung ihres Nahbereichs.
werden Nutzern eher Informationen präsentiert, auf die sie reagieren
Und hier ergibt sich eine unterbeachtete Dimension von Social Bots: ihre PR-Funktion.
dass also durch die schiere Masse automatisierter Beiträge auf Twitter und auch der Reaktion darauf bestimmte Themen erst Beachtung finden.
Und mit der Funktion des Automated Agenda Setting ergibt sich ein Ansatzpunkt für indirekten politischen Einfluss.
Wenn es vermeintlich "keine Wahrheit" gibt, steht die Propagandalüge gleichberechtigt neben der aufklärenden Nachricht.
Politische Erregung wird zum Normalzustand, Zwischentöne, Einordnungen und Relativierungen fallen zurück oder weg.
·spiegel.de·
Nach dem Trump-Sieg: Wie soziale Medien Wahlen beeinflussen
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Laut dem Sicherheitschef des Konzerns, Alex Stamos, manipulieren Geheimdienste und andere Interessengruppen per Facebook insbesondere Wahlkämpfe mit hohem Aufwand und detaillierter Vorbereitung - mittels Tarnprofilen, dem verschleierten Lancieren von Informationen und strategischem Gepöbel.
Und sie platzt in den anlaufenden Bundestagswahlkampf - in dessen Zug sich die politische Meinungsbildung so stark wie nie in den sozialen Netzwerken, allen voran Facebook, vollziehen wird
Dabei spielt laut dem Report die Gründung von Seiten von Tarnorganisationen eine große Rolle.
Auch Tarnprofile seien ein beliebtes Mittel. Sie unterscheiden sich von Social Bots, also als Menschen getarnten Programmen, weil sie eben von Menschen betriebene Fake-Profile sind - ein Phänomen, das man <a href="http://www.tagesspiegel.de/medien/datenjournalismus/twitter-datenanalyse-groesster-afd-twitter-account-ist-ein-scheinriese/19691492.html" target="_self" title="" class="text-link-ext lp-text-link-ext">auch hierzulande beobachten kann</a>.
Die Ideologie, die sie transportieren, erscheint anderen Nutzern dank den koordinierten Aktionen verbreiteter und mehrheitsfähiger, als sie tatsächlich ist.
Es gehe längerfristig auch darum, in sozialen Netzwerken Misstrauen in politische Institutionen zu säen und Verwirrung durch widersprüchliche Informationen zu stiften.
Erstmals hat Facebook einen Bericht erstellt, der belegt, wie die Plattform etwa bei Wahlen in den USA oder Frankreich zum zentralen Schauplatz für Desinformationskampagnen von Geheimdiensten geworden ist. Diese setzen Tarnprofile ein oder lancieren verschleiert Informationen. Der Bericht weist Russlands Geheimdiensten, wenn auch indirekt, die Urheberschaft zu. Als Gegenmaßname nennt Facebook den Einsatz von künstlicher Intelligenz, macht aber auch deutlich: Die Dimension des Problems ist riesig.
·m.spiegel.de·
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Facebook: Zehn Sekunden für eine Entscheidung
Facebook: Zehn Sekunden für eine Entscheidung
Ein Foto eines Hundes, der mit einer Leine am Hals gezerrt wird und offensichtlich keine Luft bekommt, ist in Ordnung. Ein Video davon nicht. Ein Erwachsener packt wiederholt ein Kind am Arm und schleudert es umher – kein Problem. Auch Bilder von Menschen mit Essstörungen sind erlaubt, solange sie niemand anfeuert. "Ich bring dich um, John!" ist eine akzeptable Aussage. "Ich bring dich um, John, ich hab das perfekte Messer!" nicht. <a class="" href="http://www.zeit.de/wissen/2017-05/stillen-geburt-baby-flaschenmilch-muttermilch-stillzeit-hebamme-schwangerschaft" target="_blank">Stillende</a> Mütter? Generell okay. Sex? Wenn dann nur gemalt, bitte. Aber nicht am Computer.
Wird es verabschiedet, verpflichten sich Plattformbetreiber, gemeldete rechtswidrige Inhalte binnen 24 Stunden zu löschen.
Das gilt auch <a href="https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-credible-threats-of-violence" target="_blank">für "glaubwürdige Gewaltandrohungen"</a>. Gelöscht werden nur Inhalte, die zuvor gemeldet wurden und die wirkliche Gewalt nach sich ziehen könnten.
·zeit.de·
Facebook: Zehn Sekunden für eine Entscheidung
Bundestagswahl - Wie Facebook die Wahl beeinflusst
Bundestagswahl - Wie Facebook die Wahl beeinflusst
Facebook ist Marktplatz, Werbefläche, Durchlauferhitzer für Unterhaltung und Information.
Facebook ist eine der wichtigsten Arenen im Kampf um politische Deutungshoheit geworden.
Traditionelle Institutionen verlieren die Kontrolle über Debatten. Neugegründete, auf Viralität spezialisierte Nachrichtenseiten mischen mit; neue <i>Influencer</i> tauchen auf, die keine Partei brauchen; Bots - automatisierte Software, getarnt als Accounts echter Menschen - verbreiten Nachrichten ebenso wie Desinformation.
Dicht versiegelte Filterblasen, in denen Nutzer ausschließlich mit zur eigenen Einstellung passenden Informationen konfrontiert werden, gibt es auf politischer Ebene im deutschen Facebook praktisch nicht.
Die AfD verharrt eher in einer Echokammer, wie sie fürs Radio genutzt wird, um einen Halleffekt zu erzeugen. Auf das Internet übertragen: in einem abgegrenzten Resonanzraum, in dem Äußerungen im Inneren bleiben und dort verstärkt werden.
Was einen Industriezweig nach dem anderen ereilt hat, trifft nun die repräsentative Demokratie, wie wir sie kennen: Disruption, ausgehend vom Silicon Valley - täglich befeuert von Millionen Nutzern.
Sie profitiert digital umso mehr von der populistischen Grundierung ihrer Slogans, die auf Facebook wie ein Brandbeschleuniger wirkt.
Umstritten ist, wie undurchdringlich diese Wände sind, wie sehr sie unsere Wahrnehmung prägen, unsere Meinungsbildung beeinflussen, wie stark sie uns womöglich von (für uns) unbequemen Informationen und Haltungen abschotten. Denn das Phänomen der Filterblasen und Echokammern gab es schon immer - allerdings wächst im Netz die Gefahr, sich in ihnen einzurichten.
Auch “Fake News” sind nicht der Untergang der Demokratie. Nachrichten lassen sich überprüfen, Fälschungen nachweisen, Bots aufspüren. Der politische Diskurs und der Wahlkampf haben den Schritt ins Digitale vollzogen. Willkommen in der Facebook-Demokratie.
·gfx.sueddeutsche.de·
Bundestagswahl - Wie Facebook die Wahl beeinflusst
Facebook-Datenskandal: Razzia in Konzernzentrale von Cambridge Analytica | ZEIT ONLINE
Facebook-Datenskandal: Razzia in Konzernzentrale von Cambridge Analytica | ZEIT ONLINE
In London haben britische Ermittler in der Nacht zu Samstag die Büros der Beratungsfirma Cambridge Analytica durchsucht.
Vergangenes Wochenende ist bekannt geworden, dass sich die Datenanalyse-Firma von einem App-Entwickler unberechtigt Zugang zu Informationen von rund 50 Millionen Facebook-Nutzerinnen und -nutzern besorgt haben soll.
Cambridge Analytica ist bereits von Facebook ausgesperrt worden. Das Unternehmen habe unrechtmäßig erhaltene Nutzerdaten entgegen früheren Zusicherungen nicht gelöscht,
·zeit.de·
Facebook-Datenskandal: Razzia in Konzernzentrale von Cambridge Analytica | ZEIT ONLINE
Ich habe nur gezeigt, dass es die Bombe gibt - Das Magazin - Das Magazin
Ich habe nur gezeigt, dass es die Bombe gibt - Das Magazin - Das Magazin
Ein anderer grosser Gewinner heisst Cambridge Analytica. Ihr Vorstandsmitglied Steve Bannon, Herausgeber der ultrarechten Onlinezeitung «Breitbart News», ist gerade zu Donald Trumps Chefstrategen ernannt worden.
Facebook erwies sich als die ultimative Waffe und der beste Wahlhelfer, wie ein Trump-Mitarbeiter twitterte. Das dürfte beispielsweise in Deutschland der AfD gefallen, die mehr Facebook-Freunde hat als CDU und SPD zusammen.
Auch der Umstand, dass Trump so wenig Geld ausgab, könnte sich mit der Effektivität persönlichkeitsbasierter Werbung erklären.
Die Firma unterteilt die US-Bevölkerung in 32 Persönlichkeitstypen, man konzentriert sich nur auf 17 Staaten.
Die Reaktion wiederum geben die Wahlhelfer in die App ein – und die neuen Daten fliessen zurück in den Kontrollraum von Cambridge Analytica.
Ab Juli 2016 wird für Trump-Wahlhelfer eine App bereitgestellt, mit der sie erkennen können, welche politische Einstellung und welchen Persönlichkeitstyp die Bewohner eines Hauses haben
Am Tag der dritten Präsidentschaftsdebatte zwischen Trump und Clinton versendet Trumps Team 175 000 verschiedene Variationen seiner Argumente, vor allem via Facebook.
Nix zeigt die Logos global tätiger Datenhändler wie Acxiom und Experian – in den USA sind quasi alle persönlichen Daten käuflich zu erwerben.
Nix erklärt freimütig, wie seine Firma das macht (der Vortrag ist auf Youtube frei einsehbar).
Brad Parscale, einem Marketingunternehmer und gescheiterten Start-up-Gründer, der Trump für 1500 Dollar eine rudimentäre Website aufgebaut hatte.
Der 70-jährige Trump ist kein Digitaltyp, auf seinem Arbeitstisch steht nicht einmal ein Computer.
Sie selber habe ihn zum Smartphone überredet – von dem aus er seither unkontrolliert twittert.
Cambridge Analytica
<p><span>Ein Jahr lang ist es ziemlich ruhig, dann, im November 2015, verkündet die radikalere der beiden Brexit-Kampagnen, «leave.eu», getragen von Nigel Farage, sie habe eine Big-Data-Firma beauftragt, ihren Wahlkampf online zu unterstützen: Cambridge Analytica. Kernkompetenz der Firma: neuartiges Politmarketing, sogenanntes Mikrotargeting – auf Basis des psychologischen Ocean-Modells. </span></p> <p></p>
SCL – Strategic Communications Laboratories. Kosinski googelt die Firma: «Wir sind eine weltweit agierende Wahl-Management-Agentur»,
Oder auch: alle unentschlossenen Demokraten. Was Kosinski genau genommen erfunden hat, ist eine Menschensuchmaschine
Daten hat und sich selbst anhand seiner Likes auf Facebook einschätzen lassen will, kann das auf Kosinskis Seite<span>&nbsp; </span><i>applymagicsauce.com</i> machen und anschliessend seine Ergebnisse mit denen eines «klassischen» Ocean-Fragebogens vergleichen:
Kosinski und sein Team verfeinern die Modelle unablässig. 2012 erbringt Kosinski den Nachweis, dass man aus durchschnittlich 68 Facebook-Likes eines Users vorhersagen kann, welche Hautfarbe er hat (95-prozentige Treffsicherheit), ob er homosexuell ist (88-prozentige Wahrscheinlichkeit), ob Demokrat oder Republikaner (85 Prozent).
<p><span>Plötzlich verfügten die beiden Doktoranden über den grössten jemals erhobenen psychologischen Datensatz.</span></p> <p></p>
Zwei Psychologen war in den 1980ern der Nachweis gelungen, dass jeder Charakterzug eines Menschen sich anhand von fünf Persönlichkeitsdimensionen messen lässt, den <i>Big Five</i>: Offenheit (Wie aufgeschlossen sind Sie gegenüber Neuem?), Gewissenhaftigkeit (Wie perfektionistisch sind Sie?), Extraversion (Wie gesellig sind Sie?), Verträglichkeit (Wie rücksichtsvoll und kooperativ sind Sie?) und Neurotizismus (Sind Sie leicht verletzlich?).
Denn hinter Trumps Onlinewahlkampf und auch hinter der Brexit-Kampagne steckt ein und dieselbe Big-Data-Firma: Cambridge Analytica mit ihrem CEO Alexander Nix.
·dasmagazin.ch·
Ich habe nur gezeigt, dass es die Bombe gibt - Das Magazin - Das Magazin
Cambridge Analytica: Der eigentliche Skandal liegt im System Facebook - Kolumne
Cambridge Analytica: Der eigentliche Skandal liegt im System Facebook - Kolumne
Facebook ist eines der mächtigsten, wenn nicht das mächtigste Unternehmen der Welt, was den Einfluss auf Wahrnehmung und Sozialverhalten sowie Reichweite angeht
Das Getöse, das jetzt um Wählerbeeinflussung zu hören ist, war meiner Ansicht nach kein <i>Missbrauch</i> von Facebook - sondern ein <i>Gebrauch</i>.
Im vorliegenden Fall leitete ein Forscher die Daten an Cambridge Analytica weiter. Ein Bruch der Vereinbarung mit <a href="/thema/facebook/">Facebook</a> und vielleicht illegal, aber eben kein "Datenklau".
zur Enthüllung sagt der Sprecher, es gehe nicht nur darum, "Gedanken zu lesen, sondern sie zu ändern".
Die gelikten Seiten wurden ausgewertet mit einer Methode, die auf dem <a href="https://de.wikipedia.org/wiki/Big_Five_(Psychologie)">"OCEAN"-Modell</a> basiert. Dabei geht man von fünf wesentlichen Dimensionen der Persönlichkeit aus: Aufgeschlossenheit, Gewissenhaftigkeit, Geselligkeit, Empathie und emotionale Labilität. Das funktioniert etwas vereinfacht über eine Gruppenzuschreibung: Wer <a href="/thema/beyonce_knowles/">Beyoncé</a> gelikt hat, ist wahrscheinlich aufgeschlossener als der Durchschnitt.
Annahmen über ihre Persönlichkeit und präferierte Werbemotive treffen.
Genau genommen <a href="/netzwelt/web/soziale-medien-und-demokratie-twitter-hat-twitter-nicht-verstanden-kolumne-a-1177006.html">weiß nicht einmal Facebook selbst</a>, wie Facebook wirkt. Und das ist die Gefahr, die das <a href="/thema/soziale_netzwerke/">soziale Netzwerk</a> für die <a href="/thema/demokratie/">Demokratie</a> darstellt
Und es ist problemlos möglich, einzelne Personen zum Werbeziel spezifischer Ansprache zu machen, wenn man deren E-Mail-Adresse oder Handynummer hat. Facebooks Überzeugungsmaschinerie war ein offenes Scheunentor für alle, die zum Beispiel von <a href="/einestages/thema/russland/">Russland</a> aus versuchen wollten, die Wahl zu beeinflussen. Ganz ohne Hack, ganz unabhängig von Cambridge Analytica.
·m.spiegel.de·
Cambridge Analytica: Der eigentliche Skandal liegt im System Facebook - Kolumne
Datenskandal: Nicht Facebook hat Trump zum Präsidenten gemacht
Datenskandal: Nicht Facebook hat Trump zum Präsidenten gemacht
die These vom manipulierbaren Individuum, das nicht aufgrund bewusster Entscheidungen handelt, sondern von unbewussten Neigungen gesteuert ist.
Die Cambridge-Psychologen Michal Kosinski und David Stillwell untersuchten 58.000 Facebook-User mit einer App, die gleichzeitig ein Persönlichkeitstest ist und Informationen über die Facebook-Likes abfragt
Offenheit, Verlässlichkeit, Extrovertiertheit, Verträglichkeit und emotionale Instabilität, den englischen Anfangsbuchstaben nach auch Ocean-Merkmale genannt. Studien zeigen, dass Persönlichkeitsmerkmale und Wahlverhalten korrelieren.
<section class="article-page" data-page-number="1" id="seite-1"><p class="paragraph article__item">Wie politische Neigungen mit Persönlichkeitsmerkmalen und diese wiederum mit Likes korrelieren, zeigen Kosinski und Stillwell mit einem Beispiel: Wer die Marke Hello Kitty mag, hat einen hohen Wert bei Offenheit und einen niedrigen bei Verlässlichkeit und wählt mit hoher Wahrscheinlichkeit die Demokraten. </p></section> <section class="article-page" data-page-number="2" id="seite-2"> <h2 class="article__subheading article__item"></h2></section>
um überhaupt einen Effekt feststellen zu können, hätte es, wie bei wissenschaftlichen Versuchen üblich, eine Kontrollgruppe geben müssen.
Darauf hat die Philosophin Edna Ullmann-Margalit schon in den Siebzigerjahren hingewiesen, indem sie zwischen Auswählen (<em>picking</em>) und Entscheiden (<em>choosing</em>) unterschied
Wenn Facebook den Zugriff auf diese Daten nun weiter erschwert, verpassen wir die große Chance, die menschliche Natur besser zu verstehen.
·zeit.de·
Datenskandal: Nicht Facebook hat Trump zum Präsidenten gemacht
Online-Werbung: Das Märchen von der magischen Manipulation
Online-Werbung: Das Märchen von der magischen Manipulation
System Werbung zu betrachten - anhand der drei wesentlichen Aspekte Markt, Messbarkeit und Manipulation.
Und zwar ein monströs großer. Im Jahr 2016 in den USA haben nach Expertenschätzung Facebook und Google zusammen 77 Prozent aller Online-Werbegelder vereinnahmt.
Ein Werbebanner gilt als ausgeliefert, wenn eine Person 50 Prozent des Banners für eine Sekunde auf dem Bildschirm hatte.
Werbekunden wollen, dass ihre Werbung eine Wirksamkeitsgarantie hat - aber das Publikum versteht unter "Wirksamkeitsgarantie" Manipulation.
·m.spiegel.de·
Online-Werbung: Das Märchen von der magischen Manipulation