AI & ethiek by Hidde de Vries
AI
Felienne Hermans: 'De stekker mag uit de hype rond large language models'
Felienne Hermans is hoogleraar didactiek van de informatie aan de VU. Ze doet een voorspelling over de journalistiek van 2026.
Chatbots discrimineren dialectsprekers
Nieuw interessant nieuws over chatbots: ze zijn niet erg onder de indruk van dialectsprekers.
Over 3 jaar komt de dag dat verhalen ophouden te verbinden
We storten ons blind op AI. Correcte en inhoudsloze teksten, zonder ziel en stem. Hoogste tijd voor een omslag, voordat het te laat is.
The AI Gender Gap Paradox
A case for fierce ambivalence
‘Hoe komt het dat steeds meer mensen zich verzetten tegen AI?’
E-book Ethiek van ChatGPT
AP waarschuwt: chatbots geven vertekend stemadvies | Autoriteit Persoonsgegevens
Stemadviezen van AI-chatbots zijn onbetrouwbaar en duidelijk gekleurd. Dat blijkt uit onderzoek van de AP.
Critical AI
On this page are some resources for Critical AI Literacy (CAIL) from my perspective.
‘AI op universiteiten is niet onvermijdelijk: verzet is mogelijk en noodzakelijk’ | Radboud Universiteit
Sinds de bredere introductie van ChatGPT in december 2022 heeft AI een groot deel van de wereld veroverd, inclusief de academische wereld. Dit gebeurde grotendeels zonder veel ondanks problematische aspecten van de technologie.
Deze programmeur dacht dat AI hem productiever maakte. En toen ging hij het meten - De Correspondent
Dit gaat lekker, dacht Mike Judge. Hij maakte intensief gebruik van AI bij zijn dagelijkse programmeerwerk en werd wel 25 procent productiever. Tenminste, dat dácht hij. Want, blijkt uit onderzoek: AI maakt programmeurs juist 20 procent mínder productief. De AI-codingdroom? ‘Bullshit.’
Chatbots als ‘gezicht’ van de organisatie
Wat zijn de gevolgen voor het vertrouwen in publieke dienstverlening?
August 2025 — AI False Claim Monitor - NewsGuard
Hallo, spreek ik met een AI?
Hoe kunnen inwoners zeker weten dat de overheid op een menselijke manier met hen communiceert, als er steeds meer generatieve AI door de overheid wordt gebruikt? De demissionair staatssecretaris Digitalisering hamert op transparantie en menselijke controle.
Chatbots en AI-zoekmachines op overheidswebsites: een droom voor management in het webmasterparadijs - De Staat van het Web!
Het lijkt een tegenstrijdigheid. Herschrijven door een redacteur mag niet want de inhoudsdeskundige en woordvoerder willen het niet. Maar het mag wel als een LLM het doet! Wat als dit eigenlijk de bedoeling is? Namelijk dat inhoud eigenlijk niet echt telt en tekst bijzaak is?
The AI Trust Gap: 82% Are Skeptical, Yet Only 8% Always Check Sources
Original Exploding Topics survey data explores public sentiment on AI Overviews and AI-generated content, highlighting trust, skepticism, and shifting content consumption habits.
Beseffen we eigenlijk wel wat we in huis halen met al die AI-toepassingen?
Heb je vragen over AI en journalistiek, maar ken je niemand aan wie je die kunt stellen? Vraag het Laurens Vreekamp! Dit keer antwoord op de vraag: Kan ik nog nee zeggen tegen AI?
AP: Emoties herkennen met AI ‘dubieus en risicovol’ | Autoriteit Persoonsgegevens
Organisaties gebruiken steeds vaker AI om emoties bij mensen te herkennen. Dit is risicovol en brengt ethische vragen met zich mee, concludeert de AP.
The party trick called LLM - blowing away smoke and break some mirrors - De Staat van het Web!
Large Language Models fool you. They don't produce language, but place words in a row. But it's understandable that you think you are dealing with a clever computer. One that occasionally says something that resembles the truth and sounds nice and reliable. You are excused to believe in this magic of ‘AI’ but not after I tell you the trick.
Ook met de eerste chatbot ooit ontwikkelden we een intieme relatie
Over hoe Eliza onze menselijke kwetsbaarheden blootlegde
De goocheltruc die LLM heet - De Staat van het Web!
Large Language Models houden je voor de gek, ze produceren geen taal maar een brei van onzin. Maar het is logisch dat je denkt dat je met een slimme computer te maken hebt. Die af en toe iets zegt dat op waarheid lijkt.
Podcast Luisteren (PodNL) - de Beste Nederlandstalige podcasts
#52 - De mens wordt een robot - Met Siri Beerends (from Kroegpraat): Filmscripts schrijven, reisblogs optikken, tekenen - je kan het inmiddels allemaal uitbesteden aan AI. Maar moet je dat wel willen? Want is het maakproces niet meer waard dan het resultaat? Stamgast Siri Beerends legt uit hoe AI steeds menselijker antwoordt, terwijl wij steeds meer op robots lijken. Moet je je verzetten tegen de AI-hype? Of blijf je dan hangen in het verleden?Onze sponsors:Sanquin; meld je aan via sanquin.nl/geef en maak een afspraak!Triodos Bank: open een rekening via triodos.nl/moveyourmoneyProductie: Meer van ditMuziek: Keez GroentemanWil je adverteren in deze podcast? Stuur een mailtje naar: Adverteerders (direct): adverteren@meervandit.nl(Media)bureaus: adverteren@bienmedia.nl Hosted on Acast. See acast.com/privacy for more information.
Superprompt maakt van chatbot Claude effectieve zoek- en factcheckhulp – Nieuwscheckers
De Nationale AI-cursus
Tijd om te werken aan je AI-geletterdheid? Hier haal je je basisdiploma geholpen door experts uit het werkveld. Gratis online cursus.
Overheid verruimt standpunt inzet generatieve AI
Ambtenaren krijgen meer ruimte om generatieve AI te gebruiken. In een handreiking staan de eerste spelregels, geldend voor de hele overheid.
5 redenen om geen ChatGPT te gebruiken voor je content
Ik wilde tot nu toe niet over AI en ChatGPT schrijven. Als ik op LinkedIn het zoveelste bericht las over content en kunstmatige intelligentie, voelde ik vooral een soort verveeld inwendig oogrollen...
Focus op AI bij de rijksoverheid
De rijksoverheid weet van veel kunstmatige intelligentie (AI) niet of die naar behoren werkt. Voor meer dan de helft van de AI-systemen die het Rijk gebruikt, zeggen overheidsorganisaties dat de kansen nog niet zijn afgewogen tegen eventuele risico’s. Bovendien is er een prikkel om risico’s laag in te schatten. Dat blijkt uit een focusonderzoek van de Algemene Rekenkamer onder 70 overheidsorganisaties.
Onderzoek TNO en Kieskompas: AI-taalmodellen zijn inconsistent en neig
Uit een experiment van TNO en Kieskompas blijkt dat generatieve AI-taalmodellen uitkomen op het linkse spectrum en wisselvallige antwoorden geven.