Found 28 bookmarks
Custom sorting
US-Wahl: Big Data allein entscheidet keine Wahl | ZEIT ONLINE
US-Wahl: Big Data allein entscheidet keine Wahl | ZEIT ONLINE
<a href="http://www.pnas.org/content/110/15/5802.full" target="_blank">Hier</a> ist seine zentrale Studie dazu
Ein ehemaliger Kollege von Michal Kosinski bezahlte Zehntausende <a class="" href="http://www.zeit.de/digital/internet/2013-10/clickworking-microtasking-deutschland" target="_blank">Clickworker von Amazons Mikrojob-Vermittlungsplattform Mechanical Turk</a> dafür, dass sie seine Persönlichkeitstests ausfüllten und ihm dabei Zugriff auf ihre Facebook-Profile gewährten – mitsamt aller Informationen über ihre jeweiligen Freunde. Diese wussten wiederum nichts davon, aber auch ihre Likes landeten in einer Datenbank
In Miamis Stadtteil Little Haiti versorgte Cambridge Analytica Einwohner mit Nachrichten über das Versagen der Clinton-Stiftung nach dem Erdbeben in Haiti – um sie davon abzuhalten, Clinton zu wählen
·zeit.de·
US-Wahl: Big Data allein entscheidet keine Wahl | ZEIT ONLINE
Wirkung sozialer Medien: Die Filterblase sind wir selbst
Wirkung sozialer Medien: Die Filterblase sind wir selbst
Es gibt mehrere Definitionen von Filterblase. Dahinter stehen unterschiedliche Phänomene.
Zudem zielt er weniger auf Meinungskonformität als auf Engagement, also die intensive Beschäftigung mit Facebook-Inhalten. Und dieses Ziel kann je nach Persönlichkeit des Nutzers auch ganz anders erreicht werden als mit selbstähnlicher Meinung.
eine eher positive Deutung, nämlich ein persönlicher Schutzraum.
Die Wirkmacht besteht vielmehr aus der Einordnung und Ausdeutung von Inhalten in der Gruppe: Nachrichten als soziale Dynamik. Oft lässt sich beobachten, dass in eindeutig rechten Gruppen eher linke Artikel geteilt werden. Sie funktionieren dann zur Abgrenzung oder als Beweis für die Verlogenheit der Medien.
Die Leute ahnen häufig, dass eine geteilte Merkel-News so kaum stimmen kann - aber es ist nicht so wichtig, weil die Verbreitung eine soziale Funktion erfüllt: ein Symbol der Gruppenzugehörigkeit.
Er stellt sich damit selbst einen Freibrief für selektive Wahrnehmung aus: Ich glaube nur Artikel, die mir in den Kram passen.
Die <a href="https://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler" target="_blank" title="" class="spTextlinkExt text-link-ext lp-text-link-ext">kognitive Verzerrung namens "Bestätigungsfehler"</a> - Informationen so auszusuchen und zu interpretieren, dass sie das eigene Weltbild stützen -, sie spielt links wie rechts.
Die sozialen Medien sind viel stärker Indikator und vielleicht Katalysator als Motor einer gesellschaftlichen Veränderung, die sich ergibt, weil die Welt im Detail doch anders ist, als wir - die eher Liberalen, Vernetzten, global Denkenden - dachte
·spiegel.de·
Wirkung sozialer Medien: Die Filterblase sind wir selbst
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
warum Facebook nackte Brüste zensiert, aber Hass und Hetze stehen lässt“.
Eva-Maria Kirschsieper, Cheflobbyistin von Facebook-Deutschland erklärte, dass man bei Facebook selbstverständlich für die 29 Millionen Nutzer in Deutschland Verantwortung trage, das sei eine „ungeheure Verantwortung“ und man nähme diese „sehr ernst“. Aber die ganze Gesellschaft sei für die Phänomene verantwortlich
Axel Wallrabenstein, als Chef der Lobbyagentur MSL auch Google-Lobbyist, sah ebenso wie Kirschsieper kein Problem bei den sozialen Medien, sondern alles als „gesamtgesellschaftliches Phänomen“.
Google-Lobbyist Wallrabenstein sah dann auch die Anonymität als das „große Problem“.
Social-Bots seien zudem kein Problem für Facebook, weil es dort über die Fan-Pages viele öffentliche Räume nebeneinander gäbe, während es bei Twitter ja nur einen gäbe
das Telemediengesetz erklären, das&nbsp;eindeutig gegen eine Klarnamenspflicht is
·netzpolitik.org·
„Fake News kann Propaganda sein, Facebook kann Lügen sein“ – die Social-Bots-Debatte bei CDU/CSU
Fachgespräch im Bundestag: Experten halten Einfluss von Social Bots für überschätzt
Fachgespräch im Bundestag: Experten halten Einfluss von Social Bots für überschätzt
Über die Wirkungen und Effekte von Fake News und Social Bots auf die politische Meinungs- und Willensbildung gibt es bislang weder in den USA noch in Deutschland ausreichende und ergiebige Studien, weswegen eine Regulierung zum jetzigen Zeitpunkt ohne eine empirische Grundlage passieren würde.
Nicht Bots seien das Problem, sondern der Vertrauensverlust der Bürger in Politik und Medien.
Zwar könnten Bots fremdenfeindliche Tendenzen verstärken, dies sei aber aufgrund der geringen Nutzerzahlen von Twitter in Deutschland zu vernachlässigen.
·netzpolitik.org·
Fachgespräch im Bundestag: Experten halten Einfluss von Social Bots für überschätzt
Die Meinungsroboter kommen – die nächste Eskalationsstufe im Propagandakrieg um unsere Köpfe ist erreicht
Die Meinungsroboter kommen – die nächste Eskalationsstufe im Propagandakrieg um unsere Köpfe ist erreicht
Wussten Sie eigentlich, dass ein großer Teil der fremdenfeindlichen Beiträge in den Sozialen Netzwerken während der Flüchtlingskrise von sogenannten Social Bots kam?
Und
Wieder ein Behauptung, die bewiesen werden muss
zunächst posteten sie frauen- und fremdenfeindliche Sprüche, um erst einmal in die „<a href="http://www.nachdenkseiten.de/?p=28235">Filterblase</a>“ der Trump-Sympathisanten vorzudringen, nur um dann Trump zu kritisieren und zur Wahl seiner Konkurrenten aufzurufen.
ELIZA war vielmehr die erste Software, die – wenn auch rudimentär – auf Basis künstlicher Intelligenz mit einem echten Menschen kommunizieren konnte.
Heute werden Chatbots vor allem bei Hotlines und Kundendialogsystemen eingesetzt.
Die Accounts müssen zunächst einmal registriert, miteinander vernetzt und über längere Zeit gepflegt werden, bevor sie einsatzbereit sind. Ansonsten fliegen derlei „Trollereien“ nämlich ziemlich schnell auf.
Die Königsklasse – zumindest unter den Bots, die bislang entdeckt wurden – versteht sich sogar meisterhaft in der Kunst der Täuschung und postet über lange Strecken erst einmal normale Beiträge, bevor sie zwischendurch politisch wird.
Beispiele für solche Bots finden!
In der Fachsprache werden solche virtuellen Identitäten „Personas“ genann
Wir können also davon ausgehen, dass die amerikanischen Dienste in Besitz einer sehr hochentwickelten Technik sind, mit der sie virtuelle Meinungsroboter einsetzen kann, ohne dabei Spuren zu hinterlassen, die auf den ersten Blick erkennbar sind.
·nachdenkseiten.de·
Die Meinungsroboter kommen – die nächste Eskalationsstufe im Propagandakrieg um unsere Köpfe ist erreicht
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Laut dem Sicherheitschef des Konzerns, Alex Stamos, manipulieren Geheimdienste und andere Interessengruppen per Facebook insbesondere Wahlkämpfe mit hohem Aufwand und detaillierter Vorbereitung - mittels Tarnprofilen, dem verschleierten Lancieren von Informationen und strategischem Gepöbel.
Und sie platzt in den anlaufenden Bundestagswahlkampf - in dessen Zug sich die politische Meinungsbildung so stark wie nie in den sozialen Netzwerken, allen voran Facebook, vollziehen wird
Dabei spielt laut dem Report die Gründung von Seiten von Tarnorganisationen eine große Rolle.
Auch Tarnprofile seien ein beliebtes Mittel. Sie unterscheiden sich von Social Bots, also als Menschen getarnten Programmen, weil sie eben von Menschen betriebene Fake-Profile sind - ein Phänomen, das man <a href="http://www.tagesspiegel.de/medien/datenjournalismus/twitter-datenanalyse-groesster-afd-twitter-account-ist-ein-scheinriese/19691492.html" target="_self" title="" class="text-link-ext lp-text-link-ext">auch hierzulande beobachten kann</a>.
Die Ideologie, die sie transportieren, erscheint anderen Nutzern dank den koordinierten Aktionen verbreiteter und mehrheitsfähiger, als sie tatsächlich ist.
Es gehe längerfristig auch darum, in sozialen Netzwerken Misstrauen in politische Institutionen zu säen und Verwirrung durch widersprüchliche Informationen zu stiften.
Erstmals hat Facebook einen Bericht erstellt, der belegt, wie die Plattform etwa bei Wahlen in den USA oder Frankreich zum zentralen Schauplatz für Desinformationskampagnen von Geheimdiensten geworden ist. Diese setzen Tarnprofile ein oder lancieren verschleiert Informationen. Der Bericht weist Russlands Geheimdiensten, wenn auch indirekt, die Urheberschaft zu. Als Gegenmaßname nennt Facebook den Einsatz von künstlicher Intelligenz, macht aber auch deutlich: Die Dimension des Problems ist riesig.
·m.spiegel.de·
Facebook: Geheimdienste nutzen das soziale Netzwerk zur Desinformation
Facebook: Zehn Sekunden für eine Entscheidung
Facebook: Zehn Sekunden für eine Entscheidung
Ein Foto eines Hundes, der mit einer Leine am Hals gezerrt wird und offensichtlich keine Luft bekommt, ist in Ordnung. Ein Video davon nicht. Ein Erwachsener packt wiederholt ein Kind am Arm und schleudert es umher – kein Problem. Auch Bilder von Menschen mit Essstörungen sind erlaubt, solange sie niemand anfeuert. "Ich bring dich um, John!" ist eine akzeptable Aussage. "Ich bring dich um, John, ich hab das perfekte Messer!" nicht. <a class="" href="http://www.zeit.de/wissen/2017-05/stillen-geburt-baby-flaschenmilch-muttermilch-stillzeit-hebamme-schwangerschaft" target="_blank">Stillende</a> Mütter? Generell okay. Sex? Wenn dann nur gemalt, bitte. Aber nicht am Computer.
Wird es verabschiedet, verpflichten sich Plattformbetreiber, gemeldete rechtswidrige Inhalte binnen 24 Stunden zu löschen.
Das gilt auch <a href="https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-credible-threats-of-violence" target="_blank">für "glaubwürdige Gewaltandrohungen"</a>. Gelöscht werden nur Inhalte, die zuvor gemeldet wurden und die wirkliche Gewalt nach sich ziehen könnten.
·zeit.de·
Facebook: Zehn Sekunden für eine Entscheidung
Meinungsfreiheit: Die Würde des Roboters ist antastbar
Meinungsfreiheit: Die Würde des Roboters ist antastbar
Instagram-Account des vollautomatisierten Sinnsprüchegenerators <a class="" href="https://www.instagram.com/p/Bhrn31AjRFT/?taken-by=inspirobot.me" target="_blank">die Botschaft "<em>Humankind is okay</em>"</a>
Tageslosung <a class="" href="https://www.instagram.com/p/BgpD6RyDKkH/?taken-by=inspirobot.me" target="_blank">"<em>Humans are horrible</em>"</a>: Menschen sind furchtbar.
mehr
Aber niemand wird auf diese Bots reagieren, weil es offensichtliche Bots sind.
Man müsse als Mensch wissen, ob man im Netz mit anderen Menschen debattiere oder mit Maschinen, die sich als solche nicht zu erkennen geben, sagt Hertzberg.
Das kann man auch
Er hat deshalb den <a class="" href="https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180SB1001" target="_blank">Gesetzentwurf mit dem Kürzel SB 1001 </a>im Senat von Kalifornien eingebracht, der künftig das Programmieren von Bots untersagen soll, die sich als natürliche Person ausgeben und somit Menschen gezielt über ihre künstliche Existenz hinwegtäuschen.
Wir können diese Bots nicht loswerden", sagt Hertzberg, "und darauf zielen wir auch gar nicht ab. Aber wir haben hier Zustände wie im Wilden Westen, und niemand kennt die Regeln."
Doch Wirkung und Anzahl von Lyrik-Bots erscheinen marginal angesichts Zigtausender Propaganda-Bots, die inzwischen das politische Meinungsbild mitbeeinflussen.
Nur weil es viele Retweet Bots gibt heißt das nicht, dass sie einen Einfluss auf die politische Meinungsbildung haben.
Audiodaten von Amazons Alexa auswerten will
Alexa zeichnet erst auf und verschickt, wenn jemand Alexa oder ein anderes vereinbartes Codewort sagt. Es werden also nur bedingt Audiodaten zu finden sein, weil keine unterbrechungsfreie Kommunikation zu finden sein wird, sondern eher Befehle an Alexa.
Jahrhundertelang fragte die angloamerikanische Philosophie – der Empirismus und Utilitarismus – eher bodenständig danach, was Dinge tun und was sie nutzen. Die kontinentaleuropäische Philosophie – der Idealismus insbesondere – hingegen interessierte sich eher für das tieferliegende Wesen der Dinge.
Doch was heißt das überhaupt: Würde? In der Philosophie unterscheidet man zwischen Dingen, die einen Preis und die einen Wert haben.
dass "für die ausgeklügeltsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre, sowie möglicherweise die Anwendung einer elektronischen Persönlichkeit auf Fälle, in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren".
Person dasjenige Subjekt, dessen Handlungen einer Zurechnung fähig sind und die keinen anderen Gesetzen folgt als denen, die sie sich selbst gibt"
Die Stimme von Duplex klingt nicht nur menschlich, ihre KI benutzt auch äußerst menschliche Ticks wie "Äh" und "Hmmm", um noch authentischer zu klingen und sich zugleich Rechenzeit für die nächste Frage oder Antwort am Telefon zu verschaffen.
·zeit.de·
Meinungsfreiheit: Die Würde des Roboters ist antastbar