Auseinandersetzung mit Künstlicher Intelligenz im Bildungssystem
"Eine große Schwäche eines textbasierten Systems wie ChatGPT ist, dass derzeit die Quellenlage der Ergebnisse nicht nachvollziehbar ist. Nutzer/innen vertrauen der Software, dass aufgrund der riesigen Textgrundlage die richtigen Schlüsse gezogen und passende Versatzstücke miteinander kombiniert wurden. Quellenangaben bleiben jedoch aus. Auch inhaltliche Fehler wurden schon vielfach von Expert/inn/en festgestellt. Erwähnenswert ist auch, dass der KI derzeit nur Informationen bis ins Jahr 2021 zur Verfügung gestellt wurden. Auch dies könnte mit Schüler/innen kritisch erörtert werden. Wie sehr würden Schüler/innen derart erlangte Informationen annehmen? In welchen Bereichen ist ein ohne Verständnis des Inhalts von einer Maschine erstellter Text problematisch? Würden sie auf derartige medizinische Diagnosen oder Ratschläge vertrauen, die sich auf sie selbst oder das Wohlergehen ihrer Familie auswirken? Kann experimentell überprüft werden, woher die Software zum Beispiel bei gezielter Frage nach einem bestimmten Sachtext ihre Informationen bezieht, indem Schüler/innen auf Grundlage eines automatisiert erstellten Textes versuchen, im Rahmen einer Internetrecherche mit seinen Quellen zu vergleichen und dabei Fehler nachzuweisen?"