Der EU AI Act: Neue Anforderungen an KI-Sicherheit und -Transparenz ab August 2025 Am 2. August 2025 treten ergänzende Vorgaben des EU AI Acts in Kraft, die speziell auf GPAI-Modelle wie ChatGPT abzielen. Für Unternehmen, die diese Tools nutzen, ergeben sich daraus indirekte, aber hochrelevante Pflichten, um die rechtskonforme Nutzung von KI zu gewährleisten:
Dokumentations- und Transparenzpflichten: Nutzer:innen müssen nachvollziehbar machen können, wie und warum KI in internen Prozessen eingesetzt wird. Dies beinhaltet auch die Protokollierung der KI-Nutzung. Sicherheitsmaßnahmen und Missbrauchsschutz: Unternehmen sind angehalten, Schutz vor Manipulation zu implementieren und kritische Eingaben zu protokollieren, um KI-Sicherheitsrisiken zu minimieren. Governance-Prozesse für interne KI-Nutzung: Die Einführung von Einsatzrichtlinien, gezielten Mitarbeiterschulungen und Risikoabschätzungen für den KI-Einsatz ist unerlässlich, um KI-Compliance sicherzustellen. Besonders der freiwillige, aber faktisch verpflichtende "Code of Practice" für LLMs gewinnt an Bedeutung. Anbieter wie Microsoft und OpenAI richten ihre Produkte zunehmend daran aus – mit direkten Auswirkungen auf die Compliance der nutzenden Unternehmen.