Links Milenu.at & David Röthler
Der EU AI Act: Neue Anforderungen an KI-Sicherheit und -Transparenz ab August 2025 Am 2. August 2025 treten ergänzende Vorgaben des EU AI Acts in Kraft, die speziell auf GPAI-Modelle wie ChatGPT abzielen. Für Unternehmen, die diese Tools nutzen, ergeben sich daraus indirekte, aber hochrelevante Pflichten, um die rechtskonforme Nutzung von KI zu gewährleisten:
Dokumentations- und Transparenzpflichten: Nutzer:innen müssen nachvollziehbar machen können, wie und warum KI in internen Prozessen eingesetzt wird. Dies beinhaltet auch die Protokollierung der KI-Nutzung. Sicherheitsmaßnahmen und Missbrauchsschutz: Unternehmen sind angehalten, Schutz vor Manipulation zu implementieren und kritische Eingaben zu protokollieren, um KI-Sicherheitsrisiken zu minimieren. Governance-Prozesse für interne KI-Nutzung: Die Einführung von Einsatzrichtlinien, gezielten Mitarbeiterschulungen und Risikoabschätzungen für den KI-Einsatz ist unerlässlich, um KI-Compliance sicherzustellen. Besonders der freiwillige, aber faktisch verpflichtende "Code of Practice" für LLMs gewinnt an Bedeutung. Anbieter wie Microsoft und OpenAI richten ihre Produkte zunehmend daran aus – mit direkten Auswirkungen auf die Compliance der nutzenden Unternehmen.
Stellt euch vor, eine Künstliche Intelligenz liest und überprüft jede wissenschaftliche Studie, die jemals veröffentlicht wurde. Science-Fiction? Nicht mehr lange. Doch was bedeutet das für unser Vertrauen in die Wissenschaft?
Ein aktueller Artikel auf "The Conversation" stellt genau diese Frage und beleuchtet beide Seiten der Medaille.
Die Herausforderung: Das derzeitige Peer-Review-System ist überlastet. "Paper Mills" produzieren fragwürdige Forschung am Fließband, und der Einfluss von Unternehmen auf Studienergebnisse ist eine reale Gefahr. Viele Fehler und bewusster Betrug bleiben unentdeckt.
Die Chance durch KI: Eine KI-gestützte Überprüfung könnte systematisch Muster erkennen, Daten analysieren und so Unstimmigkeiten und Betrug in einem Ausmaß aufdecken, das für Menschen unmöglich wäre. Sie könnte als objektiver Prüfer für wissenschaftliche Qualität fungieren.
Das Risiko: Was passiert, wenn eine solche KI-Prüfung eine Flut von Fehlern und Fälschungen aufdeckt? Das öffentliche Vertrauen in die Wissenschaft könnte massiv erschüttert werden. Zudem könnten diejenigen, die die Wissenschaft diskreditieren wollen, dies ausnutzen.
Der entscheidende Punkt: Die Frage ist nicht mehr, ob diese umfassende Prüfung stattfinden wird, sondern wer sie durchführen wird. Die wissenschaftliche Gemeinschaft hat jetzt die Chance, proaktiv zu handeln und KI als Werkzeug zur Selbstkorrektur und zur Stärkung der Transparenz zu nutzen.
Die Alternative? Jemand anderes tut es, und die Wissenschaft gerät in die Defensive.
Dies ist eine entscheidende Weggabelung. Da muss man wohl mal vom hohen Ross runter. 🙏
P.S. Vor der sogenannten GenAI-Revolution hatten wir ein Konzept entwickelt: ein KI-gestütztes Framework, um die Flut an OER-Materialien zu bewältigen – und damit die mühsame wie teure manuelle Qualitätssicherung auf das Wesentliche zurückzufahren. Seitdem liegt es in einer Schublade einer deutschen Behörde...
Hand Talk App is your free pocket dictionary for Sign Language translations.