Zukunft der Arbeit

Zukunft der Arbeit

42 bookmarks
Newest
Lücken der KI-Verordnung: Ampel will Verbot biometrischer Echtzeit-Überwachung – netzpolitik.org
Lücken der KI-Verordnung: Ampel will Verbot biometrischer Echtzeit-Überwachung – netzpolitik.org
So will die SPD im Bundestag biometrische Echtzeit-Identifizierung und Emotionserkennung verbieten
Die bekannteste Methode ist Gesichtserkennung, es gibt aber auch andere Methoden, beispielsweise die Gangart, die wir einmal als Skelettkontrolle bezeichnet haben
Bacherle findet, Systeme mit Echtzeitüberwachung sollten gar nicht erst installiert werden, auch nicht mit Richtervorbehalt.
Üppige Rechte gewährt die KI-Verordnung bei der biometrischen Überwachung von Menschen im Nachhinein („retrograd“), etwa mit Hilfe archivierter Kamerabilder. Aufnahmen von Menschen dürfen demnach biometrisch gescannt werden, sobald Ermittler*innen sie einer Straftat verdächtigen. Um sie erstmals zu identifizieren, braucht es nicht einmal eine richterliche Genehmigung.
warnt: „In der Wissenschaft ist höchst umstritten, ob sich von der Mimik Rückschlüsse auf Emotionen ziehen lassen
registrieren. Es gibt jedoch Ausnahmen, ausgerechnet für den sensiblen Bereich „Strafverfolgung, Migration, Asyl und Grenzkontrollmanagement
Auf den ersten Blick schafft die KI-Verordnung viel Transparenz, denn wer riskante KI-Systeme einsetzt, muss das in einer öffentlichen Datenbank
Die Digitalpolitikerin fordert – ähnlich wie SPD-Abgeordneter Mavi – ein nationales Transparenzregister für staatlich eingesetzte KI-Systeme
·netzpolitik.org·
Lücken der KI-Verordnung: Ampel will Verbot biometrischer Echtzeit-Überwachung – netzpolitik.org
Grundrechte in Gefahr: Die sieben quälendsten Fragen zur KI-Verordnung – netzpolitik.org
Grundrechte in Gefahr: Die sieben quälendsten Fragen zur KI-Verordnung – netzpolitik.org
Die KI-Verordnung erlaubt biometrische Echtzeit-Identifikation auch dann, wenn nur die Annahme besteht, dass etwas Schlimmes passieren könnte
Noch laxer ist die KI-Verordnung, wenn die Überwachung nicht in Echtzeit passiert, sondern nachträglich („retrograd“). Denkbar wäre etwa, hierfür archivierte Aufnahmen von Überwachungskameras zu durchleuchten
Die Kritik daran ist harsch. „Die retrograde biometrische Identifizierung von Personen ist nahezu ohne rechtsstaatliche Hürden wie eine vorherige richterliche Genehmigung und bereits für kleinste Bagatelldelikte möglich“
Übrig geblieben ist jetzt nur noch ein Verbot im Bildungsbereich und bei der Arbeit (Artikel 5(1), (d)(iiic)). Für den Einsatz der wissenschaftlich geächteten Technologie in der Polizeiarbeit und bei Grenzkontrollen gibt die Verordnung dagegen grünes Licht, ebenso wie in anderen Bereichen
mutmaßlich aggressive Personen aus einer großen Menschenmenge fischen oder Menschen vor der Einreise beim angeblichen Lügen ertappen
Kritiker*innen sprechen bei der Emotionserkennung von „Junk Science“, wissenschaftlichem Müll.
der KI-Verordnung kaum Schutz erwarten. Die zumindest grundlegenden Einschränkungen für Gesichtserkennung im öffentlichen Raum? Gelten ausdrücklich nicht für Grenzkontrollen, da Grenzen laut Kompromisstext nicht Teil des „öffentlichen Raums
Die Tatsache, dass das Gesetz den Einsatz vieler strafbarer KI-Instrumente gegen Menschen auf der Flucht legitimiert, ist wirklich besorgniserregend
Dass dem Einsatz gefährlichster KI-Technologien damit keine Schranken gesetzt sind, zeigt auch die staatliche Spionagesoftware Pegasus, angeboten von der israelischen NSO Group. Diese Technologie wurde laut Herstellerangaben ausschließlich für Zwecke der nationalen Sicherheit entwickelt. Längst aber ist bekannt, dass damit auch Oppositionelle, Journalist*innen und Dissident*innen in der EU ins Visier genommen werden
Bundeswirtschaftsminister Robert Habeck (Grüne) gewandt und gefordert: „KI für Zwecke der nationalen Sicherheit darf nicht pauschal von der Verordnung ausgenommen werden“. Sie haben sich nicht durchgesetzt.
So soll sich jede Person bei ihrer nationalen KI-Aufsichtsbehörde beschweren dürfen, wenn sie ihre Rechte verletzt sieht
Der Bundesdatenschutzbeaufragte Ulrich Kelber schreibt, die KI-Verordnung stärke auch den Schutz der Grundrechte, insbesondere den Datenschutz im Zusammenspiel mit der Datenschutz-Grundverordnung (DSGVO)
Nun steht im Kompromisstext ein Verbot von Predictive Policing (Artikel 5(1), (d)(iiia)).
Verwendung eines KI-Systems zur Risikobewertung natürlicher Personen, um das Risiko einer natürlichen Person, eine Straftat zu begehen, zu bewerten oder vorherzusagen, und zwar ausschließlich auf Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften“.
Zur biometrischen Identifizierung heißt es in der Verordnung ausdrücklich, Mitgliedstaaten können strengere Gesetze erlassen
·netzpolitik.org·
Grundrechte in Gefahr: Die sieben quälendsten Fragen zur KI-Verordnung – netzpolitik.org
Ethische KI: Ein Leitfaden für verantwortungsvolle KI-Entwicklung​
Ethische KI: Ein Leitfaden für verantwortungsvolle KI-Entwicklung​
Planung, Datensatzauswahl, Modellauswahl, Fairness-Evaluation und Mensch-Maschine-Interaktion. Bei der Planung macht man sich vor allem darum Gedanken, welche Probleme auftreten können und wie sich die KI missbrauchen lässt. Für den passenden Datensatz ist es wichtig, problematische Daten zu erkennen und Urheberrechte zu beachten. Beim Modell kommt es darauf an, wie nachvollziehbar es für Menschen entscheidet. Während der Fairness-Evaluation prüft man, wie fair die KI entscheidet. Schließlich beobachtet man noch, wie Menschen mit der KI umgehen und welche ethischen Probleme dabei auftreten können.
Neben unbeabsichtigt Betroffenen können auch unbeabsichtigte Anwendungsfälle Probleme aufwerfen
Für manche ist etwa deontologischen Ansatz von Kant sinnvoller, andere bevorzugen den utilitaristischen Ansatz von Mill.
Der deontologische Ansatz von Immanuel Kant und der utilitaristische Ansatz von John Stuart Mill sind zwei verschiedene ethische Theorien, die man in der KI-Ethik als Leitprinzipien verwenden kann
Nach dem kategorischen Imperativ gelten Handlungen als moralisch, wenn ein Mensch nach Grundsätzen handelt, die sich widerspruchsfrei verallgemeinern lassen
Mill argumentierte, dass Handlungen moralisch gerechtfertigt sind, wenn sie das größte Wohl für die größte Anzahl von Menschen schaffen
Systeme, die als unmoralisch und gefährlich gelten, fallen in die Kategorie des unakzeptablen Risikos und sind verboten.Systeme mit hohem Risiko sind solche, die sich auf die Sicherheit und Grundrechte auswirken können und während ihres gesamten Lebenszyklus Sicherheitsbewertungen bestehen müssen.Für generative KI-Systeme gelten Transparenzanforderungen. Sie müssen beispielsweise offenlegen, wenn Sie eine KI mit urheberrechtlich geschützten Daten trainieren.KI-Systeme mit begrenztem Risiko unterliegen weniger strengen Vorschriften – hier liegt der Fokus darauf, dass die Nutzung optional bleibt und der Anwender die endgültige Entscheidung trifft.
Anders als Ihre Schüler ist Ihre KI nicht in der Lage sich externe Informationen einzuholen. Sie reproduziert lediglich die Muster in den Trainingsdaten – ethisch problematische Muster sind dabei leider eingeschlossen.
·heise.de·
Ethische KI: Ein Leitfaden für verantwortungsvolle KI-Entwicklung​
Kostenlos KI-Kunst erstellen: Dall-E 3 und Bing ausprobiert
Kostenlos KI-Kunst erstellen: Dall-E 3 und Bing ausprobiert
Im Namen Dall-E verstecken sich der spanische Künstler Salvador Dalí und der Pixar-Müllroboter Wall-E
Rufen Sie zuerst bing.com/create auf, dort ist der "Bing Image Creator" untergebracht. (Dall-E ist zusätzlich im "Bing Chat" verfügbar.) Geben Sie nun in die Textbox ein, was die KI erzeugen soll: "Süße Malteser-Hunde am Strand"
doch sie verstand auch unsere Prompts auf Deutsch
Voraussetzung für die Nutzung von Dall-E in Bing ist allerdings ein kostenloses Microsoft-Konto, das in wenigen Schritten eingerichtet ist
erhalten: "Süßer, fluffiger Malteser-Hund mit Kulleraugen".
Partyhut-Gesicht 🥳 erzeugt Dall-E eine bunte Geburtstagsszene mit Kerzen
realistisches Gemälde, Illustration, skurril, surrealistisch und mehr
Image of the Apollo 11 landing in 8-bit pixel art style", oder: "Neil Armstrong on the moon, pixelated 8-bit style".
etwa das "Dall-E 2 Prompt Book" von Guy Parsons sowie die Midlibrary von Andrei Kovalev, die zahlreiche Bildrichtungen samt anschaulichen Beispielen online auflistet
4K" oder "8K" in Prompts üblich, sie sollen die Qualität des KI-Bilds verbessern
close-up of a woman's face
konkrete Angaben von Objektiven und Brennweiten ("Fujinon 23 mm, f 2.8"), um der KI mitzuteilen, dass sie den typischen Foto-Look imitieren soll
zum Beispiel "analog" oder konkreter "Kodak Portra 800"), den Kontext ("Fotostudio") und die Beleuchtung ("Dramatisches Licht
Außergewöhnliche Ergebnisse liefern Extreme wie ein "extreme close-up", also eine ganz nahe Nahaufnahme. Bei einem "medium shot", dem "(extreme) long shot" oder einem "wide shot" passt allerdings viel mehr aufs Foto. Die "overhead view" oder die "aerial view" zeigen die Welt von oben; der "(extreme) low angle" eher von unten
Erzeuge ein Bild von einem Malteser-Hund aus Watte
unsichtbaren Wasserzeichen markiert
Verbreitung irreführender Informationen im Internet" bekämpfen
Bilder zu erzeugen, kostet auch hier GPU-Rechenzeit, weshalb OpenAI die Nutzung von GPT-4 und Dall-E offiziell auf "50 Anfragen" innerhalb von drei Stunden begrenzt
In ChatGPT liefert Dall-E 3 allerdings eine wesentlich bessere Qualität im PNG-Format
·heise.de·
Kostenlos KI-Kunst erstellen: Dall-E 3 und Bing ausprobiert