Faul und inkompetent? KI-Nutzung schadet dem Image im Büro
Künstliche Intelligenz
Per Anhalter durch die KI-Galaxie – LLM-Crashkurs Teil 1
nutzt der Transformer Self-Attention-Mechanismen, um Kontextbeziehungen zwischen allen Wörtern in einem Text parallel zu erfassen.
Tokenizer: Dies ist der Türsteher des Modells, der dafür verantwortlich ist, die Eingabetexte in kleinere Einheiten namens Tokens zu zerlegen
Sie wandelt die Eingabe-Tokens in numerische Darstellungen um, die man als Embeddings bezeichnet und die das Modell verstehen kann.
Er nimmt die Embeddings und generiert eine kontinuierliche Darstellung des Eingabetextes, oft als "kontextualisierte Darstellung" bezeichnet
Text basierend auf der Eingabe und der kontextualisierten Darstellung zu generieren
Häufige Ziele sind maskiertes Sprachmodellieren (Vorhersage fehlender Token) und Vorhersage des nächsten Satzes
Der Satz „KI ist faszinierend!“ könnte in Tokens wie `["KI", " ist", " fas", "zin", "ierend", "!"]` zerlegt werden.
Jeder Token wird in einen hochdimensionalen Vektor (z. B. 768 oder 4096 Dimensionen) umgewandelt
Jede Dimension repräsentiert eine von der AI gewählte Domäne, etwa Farbe, Tiergattung.
die Nuancen der Wortmorphologie zu erfassen und unbekannte Wörter zu handhaben.
Jedenfalls liegen ähnliche Begriffe wie "Kater" und "Katze" in dem mehrdimensionalen Vektorraum ganz nahe beieinander. Begriffe wie "Eiscreme" und "Weltall" liegen hingegen weit auseinander.
Das LLM lernt die positionellen Codierungen während des Trainings. Sie dienen dazu, die Position jedes Tokens in der Sequenz zu codieren
Ein LLM berechnet die Beziehungen für jedes Wort im Satz zu jedem anderen Wort im Satz. Das nennt sich Self-Attention. Sie bezeichnet, wie stark sich Token gegenseitig „beachten“.
Wenn das LLM bereits zu viel Kontextinformation gemerkt hat und der Speicher "überläuft", beginnt es vorangegangenen Kontext zu "vergessen".
KI.Welten | KI spielerisch entdecken
Data Workers‘ Inquiry: Die versteckten Arbeitskräfte hinter der KI erzählen ihre Geschichten
KI ist ein Coup: Das Internet, generative Künstliche Intelligenz und die Zukunft der Demokratie
ChatGPT: 22 Videos zeigen neue Sprachmöglichkeiten
Microsoft 365 Copilot Was arbeitsrechtlich zu beachten ist
Diesem stehen bei der Einführung und Anwendung des Microsoft 365 Copilot Beteiligungsrechte zu
Besonders frühzeitig greifen grundsätzlich die Unterrichtungs- und Beratungsrechte des Betriebsrates
Arbeitgeber müssen nach Paragraf 90 Absatz 1 Nummer 3 Betriebsverfassungsgesetz (BetrVG) bei der Einführung von KI den Betriebsrat bereits über den bloßen Plan unterrichten und diesen gemeinsam beraten.
Der Betriebsrat kann zudem den Abschluss einer Betriebsvereinbarung verlangen, welche Regelungen zur Einführung und zum Umgang mit der KI trifft. Gemäß Paragraf 87 Absatz 1 Nummer 6 BetrVG steht dem Betriebsrat ein entsprechendes Mitbestimmungsrecht zu, welches die Einführung und Anwendung technischer Einrichtungen umfasst, die zur Überwachung der Leistung oder des Verhaltens der Arbeitnehmer geeignet sind
Die Einführung von ChatGPT ist mitbestimmungsfrei. Zwar sammelt die KI Nutzerdaten und ermöglicht über die gestellten Anfragen eine entsprechende Leistungs- und Verhaltenskontrolle. Auf diese Daten hat allerdings nur OpenAI Zugriff. Es besteht keine Zugriffsmöglichkeit für den Arbeitgeber.
Die Copilot-Funktion nutzt diese zur Überwachung geeignete digitale Infrastruktur und unterliegt dem Mitbestimmungsrecht des Paragraf 87 Absatz 1 Nummer 6 BetrVG.
Weitere datenschutzrechtliche Risiken ergeben sich aus der sogenannten Blackbox der KI, welche ein selbstlernendes System darstellt. Der Algorithmus kann eigene Entscheidungen treffen, sodass diese für die Entwickler nicht mehr vollständig nachvollziehbar sind. KI steht daher in einem Spannungsverhältnis mit datenschutzrechtlichen Transparenzpflichten
KI hat das Potenzial, Arbeitsplätze grundlegend und nachhaltig zu verändern
Von wegen Künstliche Intelligenz: Indische Arbeitskräfte steckten hinter Amazons smarten Supermarktkassen
KI und Datenschutz: Eine kritische Betrachtung
Auf diese Weise hängen die Begriffe Artificial Intelligence und Big Data zusammen, denn Big Data ist sozusagen das Material einer AI-Struktur
KI kann beispielsweise weder lernen noch denken. Wenn eine Datenbank einen falschen Wert ausgibt, würde niemand sagen, dass sie halluziniert oder lügt (warum dann bei Sprachmodellen?).
Zum Beispiel wird oft behauptet, dass ein Sprachmodell (wie ChatGPT) die tatsächliche Bedeutung eines Textes versteht
Tempomacher ist jedenfalls das Narrativ vom Wettlauf der Systeme.
Überzogene Untergangsprognosen wie die Gefahr einer »superintelligenten KI ohne moralischen Kompass, die die Menschheit zerstört« (Jiang et al., 2021), unterstellen vielmehr, dass die Technologie selbst die Lösung ist
Diese Vergangenheitsanalyse wird – wie bei allen datenbasierten Methoden – zur Prognose unter der Annahme und Voraussetzung, dass sich in der Zukunft die Dinge wie bisher verhalten
Ein Muster muss in den Daten häufig vorkommen, um als solches erkannt zu werden – es handelt sich bei Mustern also in gewisser Weise um den »Durchschnitt
und letztlich intransparenter Prozess ist, in dessen Mittelpunkt Daten stehen
Das Kernproblem ist immer die Breitenwirkung einer Technologie – selbst kleinste Fehlerquoten können die Grundrechte vieler Menschen betreffen
Wenn ein Mensch die Entscheidung nicht mehr selbst mit Argumenten begründen kann, sondern sich auf den Output eines Computers verlässt, verschwimmt die Grenze zwischen menschlicher und algorithmischer Entscheidungsfindung
KI als Spiegel
Das eigene KI-Modell programmieren: So geht's mit Swift
Bei der Prediction liefert das Netzwerk einen Wert für die Wahrscheinlichkeit, mit der das Ergebnis (Result) mit einem erwarteten Wert (Target) übereinstimmt
Das kleinste Element in einem neuronalen Netzwerk ist das Neuron. Es hat mehrere Eingänge, denen jeweils ein Gewicht (Weight) zugeordnet ist, und einen Ausgang
Die Weights eines Netzwerks bilden zusammengenommen das Modell
Unterwegs berechnet jedes Layer seinen Anteil am Error und justiert mit diesem Wert seine Weights. Dieser Vorgang ist die sogenannte Back Propagation, die das Netzwerk mit jeder Prediction etwas schlauer macht – es lernt.
Mit einem Testdatensatz (Test Set) lässt sich die Accuracy überprüfen
Dabei sollten die Samples im Test Set nicht aus dem Training Set stammen
An dieser Stelle sei erwähnt, dass das Training neuronaler Netzwerke auch heute noch sehr viel mit "Versuch macht kluch" zu tun hat
Die GD berechnet beim Training eines neuronalen Netzwerks vom Output zum Input für jedes Layer das Verhältnis von Error zu Weights (also den Anteil des Error an den Weights) und addiert das (positive oder negative) Ergebnis zu den eingestellten Weights
KI/ algorithmische Systeme
KI im Betrieb regeln
Kostenlos KI-Kunst erstellen: Dall-E 3 und Bing ausprobiert
Im Namen Dall-E verstecken sich der spanische Künstler Salvador Dalí und der Pixar-Müllroboter Wall-E
Rufen Sie zuerst bing.com/create auf, dort ist der "Bing Image Creator" untergebracht. (Dall-E ist zusätzlich im "Bing Chat" verfügbar.) Geben Sie nun in die Textbox ein, was die KI erzeugen soll: "Süße Malteser-Hunde am Strand"
doch sie verstand auch unsere Prompts auf Deutsch
Voraussetzung für die Nutzung von Dall-E in Bing ist allerdings ein kostenloses Microsoft-Konto, das in wenigen Schritten eingerichtet ist
erhalten: "Süßer, fluffiger Malteser-Hund mit Kulleraugen".
Partyhut-Gesicht 🥳 erzeugt Dall-E eine bunte Geburtstagsszene mit Kerzen
realistisches Gemälde, Illustration, skurril, surrealistisch und mehr
Image of the Apollo 11 landing in 8-bit pixel art style", oder: "Neil Armstrong on the moon, pixelated 8-bit style".
etwa das "Dall-E 2 Prompt Book" von Guy Parsons sowie die Midlibrary von Andrei Kovalev, die zahlreiche Bildrichtungen samt anschaulichen Beispielen online auflistet
4K" oder "8K" in Prompts üblich, sie sollen die Qualität des KI-Bilds verbessern
close-up of a woman's face
konkrete Angaben von Objektiven und Brennweiten ("Fujinon 23 mm, f 2.8"), um der KI mitzuteilen, dass sie den typischen Foto-Look imitieren soll
zum Beispiel "analog" oder konkreter "Kodak Portra 800"), den Kontext ("Fotostudio") und die Beleuchtung ("Dramatisches Licht
Außergewöhnliche Ergebnisse liefern Extreme wie ein "extreme close-up", also eine ganz nahe Nahaufnahme. Bei einem "medium shot", dem "(extreme) long shot" oder einem "wide shot" passt allerdings viel mehr aufs Foto. Die "overhead view" oder die "aerial view" zeigen die Welt von oben; der "(extreme) low angle" eher von unten
Erzeuge ein Bild von einem Malteser-Hund aus Watte
unsichtbaren Wasserzeichen markiert
Verbreitung irreführender Informationen im Internet" bekämpfen
Bilder zu erzeugen, kostet auch hier GPU-Rechenzeit, weshalb OpenAI die Nutzung von GPT-4 und Dall-E offiziell auf "50 Anfragen" innerhalb von drei Stunden begrenzt
In ChatGPT liefert Dall-E 3 allerdings eine wesentlich bessere Qualität im PNG-Format
Künstliche Intelligenz, Large Language Models,ChatGPT und die Arbeitswelt der Zukunft