20.03.2025 As GenAI transforms education, educators face difficult ethical questions about how these technologies impact students. In this webinar, we explored these critical issues and how the SEE approach to AI literacy—using generative AI Safely, Ethically, and Effectively in educational settings - can provide a framework for supporting these efforts.

AI
AI@HPI Konferenz 2024 (4)
Der rasante Fortschritt im Bereich der Künstlichen Intelligenz (KI) hat weitreichende Auswirkungen auf alle Branchen. Vor diesem Hintergrund ist es notwendig, schnell zu handeln, um mit der Konkurrenz Schritt zu halten und gleichzeitig ethische Standards einzuhalten und bewährte ethische Verfahren an die neuesten technischen Entwicklungen anzupassen. Dieses Panel untersucht, wie ethische Prinzipien und Verantwortungsbewusstsein in die Entwicklung und Implementierung von KI-Systemen integriert werden können. Experten aus verschiedenen Branchen diskutieren, wie Prinzipien wie Fairness, Transparenz und Datenschutz in der Praxis umgesetzt werden können, um die Risiken und potenziellen negativen Auswirkungen des KI-Einsatzes zu minimieren. Ein besonderer Schwerpunkt liegt auf der Entwicklung von Richtlinien und bewährten Verfahren, die Unternehmen und Organisationen für einen verantwortungsvollen und nachhaltigen Einsatz von KI-Technologien auch ohne strenge regulatorische Rahmenbedingungen eingeführt haben. Die Diskussion beleuchtet, wie Branchenführer und die Zivilgesellschaft proaktiv versuchen, ethische Standards und Selbstregulierungsmaßnahmen zu etablieren. Dabei wird auch untersucht, wie diese Praktiken ihr Engagement für einen ethischen KI-Einsatz widerspiegeln und wie sie die Zukunft des KI-Einsatzes über formale Vorschriften hinaus gestalten.
Erstellen Sie erfolgreiche Anzeigen mit KI -Akteure AI Actors
Erstellen Sie Hunderte erfolgreicher Videos aus Text.
05.03.2025 Manus is a general AI agent that bridges minds and actions: it doesn't just think, it delivers results. Manus excels at various tasks in work and life, getting everything done while you rest.
Einschränkungen und Schlussfolgerungen In dieser Arbeit haben wir verschiedene Aktionsraumadapter (ASAs) für eine Vielzahl von Verkörperungen, Aktionsräumen und Umgebungen untersucht. Wir bieten eine Verallgemeinerung früherer Arbeiten durch die Linse von Aktionsraumadaptern und zeigen sowohl für diskrete als auch für kontinuierliche Aktionsräume Designs, die, wie wir zeigen, das Wissen innerhalb des MLLM nutzen können. Unsere Ergebnisse zeigen, dass es für kontinuierliche Aktionen am besten ist, Aktions-Token zu lernen, die die Aktionsverteilung genau modellieren, während es für diskrete Aktionen am besten ist, über semantische Sprachbeschreibungen von Aktionen nachzudenken. Wir verifizieren diese Ideen in 114 verkörperten KI-Aufgaben in 5 verschiedenen Umgebungen. Eine Einschränkung unserer Arbeit besteht darin, dass unsere gesamte Analyse auf einem einzigen MLLM (LLaVA) beruht. Eine weitere Einschränkung ist, dass RVQ, die leistungsstärkste ASA in kontinuierlichen Handlungsräumen, das Sammeln von Demonstrationen erfordert, um das VQ-Modell zu trainieren. Unsere Analysen beruhen ebenfalls nur auf einer einzigen LoRA-Trainingseinstellung. Zukünftige Analysen können verschiedene Basis-MLLMs unter verschiedenen Trainingsbedingungen, wie z.B. vollständige LLM-Feinabstimmung, untersuchen. Während unsere Untersuchung von ASAs es ermöglicht, ein MLLM mit verschiedenen Aktionsräumen zu verbinden, ist die Leistung von dieser Methoden immer noch unterdurchschnittlich für den Einsatz in realen Robotern, wo hoher Erfolg und Sicherheit entscheidend sind. MLLMs mit der besten ASA haben in einfachen Umgebungen wie BabyAI immer noch Schwierigkeiten und erreichen nur eine Erfolgsquote von 40 %. Es sind weitere Arbeiten erforderlich, um die Leistung dieser Methoden für den realen Einsatz zu verbessern. Unsere Untersuchung befasst sich auch nur mit der Anpassung von MLLMs durch Verhaltensklonen oder On-Policy-RL. Zukünftige Arbeiten können untersuchen, ob die Wahl der ASA variiert, wenn das MLLM mit anderen Lernalgorithmen wie Off-Policy RL oder Offline RL angepasst wird.
zuletzt überarbeitet am 9. Dezember 2024 (diese Version, v2
Multimodale Large Language Models (MLLMs) haben in vielen Bereichen, einschließlich der verkörperten KI, ein breites Leistungsspektrum bewiesen. In dieser Arbeit untersuchen wir, wie sich ein MLLM am besten in verschiedene Verkörperungen und die zugehörigen Aktionsräume integrieren lässt, um das multimodale Weltwissen des MLLM optimal zu nutzen. Wir verallgemeinern zunächst eine Reihe von Methoden durch eine einheitliche Architektur und die Linse von Aktionsraumadaptern. Für kontinuierliche Aktionen zeigen wir, dass eine erlernte Tokenisierung eine ausreichende Modellierungspräzision ermöglicht und so die beste Leistung bei nachgelagerten Aufgaben liefert. Für diskrete Aktionen zeigen wir, dass die semantische Ausrichtung dieser Aktionen auf den nativen Ausgabe-Tokenraum des MLLM die beste Leistung liefert. Wir gelangen zu diesen Erkenntnissen durch eine gründliche Untersuchung von sieben Aktionsraumadaptern in fünf verschiedenen Umgebungen, die über 114 verkörperte Aufgaben umfassen.
ABSTRACT The recent advances in large language models (LLMs) attracted significant public and policymaker interest in its adoption patterns. In this paper, we systematically analyze LLM-assisted writing across four domains—consumer complaints, corporate communications, job postings, and international organization press releases—from January 2022 to September 2024. Our dataset includes 687,241 consumer complaints, 537,413 corporate press releases, 304.3 million job postings, and 15,919 United Nations (UN) press releases. Using a robust population-level statistical framework, we find that LLM usage surged following the release of ChatGPT in November 2022. By late 2024, roughly 18% of financial consumer complaint text appears to be LLM-assisted, with adoption patterns spread broadly across regions and slightly higher in urban areas. For corporate press releases, up to 24% of the text is attributable to LLMs. In job postings, LLM-assisted writing accounts for just below 10% in small firms, and is even more common among younger firms. UN press releases also reflect this trend, with nearly 14% of content being generated or modified by LLMs. Although adoption climbed rapidly post-ChatGPT, growth appears to have stabilized by 2024, reflecting either saturation in LLM adoption or increasing subtlety of more advanced models. Our study shows the emergence of a new reality in which firms, consumers and even international organizations substantially rely on generative AI for communications
Was sind multimodale Modelle? Definition
Multimodale Modelle sind KI-Systeme, die Informationen aus verschiedenen Modalitäten – z. B. Text, Bild, Audio und Video – kombinieren, um eine Aufgabe besser zu lösen als mit einer einzigen Datenquelle. Beispiele für Modalitäten
Text: Schriftliche Dokumente, Kommentare oder Chatnachrichten.
Bild: Fotografien, Diagramme, Zeichnungen.
Audio: Sprache, Musik, Umgebungsgeräusche.
Video: Bewegte Bilder, kombiniert mit Ton und Kontext.
gm/ DoBa600 / Ki@kurs2025
Kapitel "wie geht man mit KI?" um scheint mir besonders interessant zu sein.....