Critical AI / Hallucination / Bias

Critical AI / Hallucination / Bias

10 bookmarks
Custom sorting
EDSAFE AI | Juni 2024
EDSAFE AI | Juni 2024
EDSAFE AI Alliance leads work in AI education policy through the SAFE framework.
·edsafeai.org·
EDSAFE AI | Juni 2024
Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies, 2.2.2024
Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies, 2.2.2024
This study explores how discussing metaphors for AI can help build awareness of the frames that shape our understanding of AI systems, particularly large language models (LLMs) like ChatGPT. Given the pressing need to teach “critical AI literacy”, discussion of metaphor provides an opportunity for inquiry and dialogue with space for nuance, playfulness, and critique. Using a collaborative autoethnographic methodology, we analyzed metaphors from a range of sources, and reflected on them individually according to seven questions, then met and discussed our interpretations. We then analyzed how our reflections contributed to the three kinds of literacies delineated in Selber’s multiliteracies framework: functional, critical and rhetorical. These allowed us to analyze questions of ethics, equity, and accessibility in relation to AI. We explored each metaphor along the dimension of whether or not it was promoting anthropomorphizing, and to what extent such metaphors imply that AI is sentient. Our findings highlight the role of metaphor reflection in fostering a nuanced understanding of AI, suggesting that our collaborative autoethnographic approach as well as the heuristic model of plotting AI metaphors on dimensions of anthropomorphism and multiliteracies, might be useful for educators and researchers in the pursuit of advancing critical AI literacy.
·openpraxis.org·
Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies, 2.2.2024
Thinking with AI - Pros and Cons — Language, Logic, and Loops, sokratisches Fragestellungen | 5.9.2023
Thinking with AI - Pros and Cons — Language, Logic, and Loops, sokratisches Fragestellungen | 5.9.2023
Das Aufkommen künstlicher Intelligenz (KI) mit umfangreichen Fähigkeiten zur Sprachmodellierung hat eine neue Ära der Möglichkeiten in verschiedenen Bereichen eingeläutet, darunter Bildung und kognitive Verbesserung. Eine interessante Perspektive ist die Rolle der KI als Problemlösungspartner – ein digitaler Begleiter, der Dialoge führt (Sprache), Annahmen hinterfragt (Logik) und Einzelpersonen durch den Prozess des darüber hinausgehenden Denkens führt (Schleifen). Das Konzept der KI, die in die Fußstapfen sokratischer Fragestellungen tritt und jedem dabei hilft, Steve Jobs-ähnliche Einblicke in das zu gewinnen, was noch nicht erfunden wurde, verspricht, die kognitiven Fähigkeiten des Menschen zu verbessern, tieferes Nachdenken zu fördern und intellektuelles Wachstum zu fördern. Doch das Denken mit KI ist nicht ohne Risiko. In dieser kurzen Überlegung skizzieren wir die Vor- und Nachteile des Denkens mit ChatGPT an unserer Seite.
·sps.nyu.edu·
Thinking with AI - Pros and Cons — Language, Logic, and Loops, sokratisches Fragestellungen | 5.9.2023
Center for Humane Technology
Center for Humane Technology
Our journey began in 2013 when Tristan Harris sparked a global humane technology movement known as Time Well Spent.
·humanetech.com·
Center for Humane Technology
AI Design Justice - Guiding Questions - 2024
AI Design Justice - Guiding Questions - 2024
DESIGN JUSTICE AI ist eine interdisziplinäre Zusammenarbeit, die das gemeinschaftszentrierte Engagement von „Generative AI“ (der statistischen Modellierung und Synthese menschlicher Sprachen, Kommunikation, Künste und Kulturen) erforscht.
·criticalai.org·
AI Design Justice - Guiding Questions - 2024
Prof. Emily M. Bender(she/her) (@emilymbender@dair-community.social) bei mastodon
Prof. Emily M. Bender(she/her) (@emilymbender@dair-community.social) bei mastodon
With the OpenAI clownshow, there's been renewed media attention on the xrisk/"AI safety"/doomer nonsense. Personally, I've had a fresh wave of reporters asking me naive questions (as well as some contacts from old hands who are on top of how to handle ultra-rich man-children with god complexes).
·dair-community.social·
Prof. Emily M. Bender(she/her) (@emilymbender@dair-community.social) bei mastodon
LLM Hallucination Index - Galileo | Jan. 2024
LLM Hallucination Index - Galileo | Jan. 2024
Viele Unternehmensteams haben LLMs bereits erfolgreich in der Produktion eingesetzt, und viele andere haben sich dazu verpflichtet, generative KI-Produkte im Jahr 2024 einzusetzen. Die größte Hürde für Unternehmens-KI-Teams bei der Bereitstellung produktionsbereiter generativer KI-Produkte bleibt jedoch die Angst vor Modellhalluzinationen – a Sammelbegriff für den Fall, dass das Modell falschen oder erfundenen Text generiert. Dafür kann es mehrere Gründe geben, z. B. mangelnde Kapazität des Modells, sich alle zugeführten Informationen zu merken, Trainingsdatenfehler und veraltete Trainingsdaten.
·rungalileo.io·
LLM Hallucination Index - Galileo | Jan. 2024