AI

88 bookmarks
Custom sorting
Gemeente Utrecht moet beter omgaan met algoritmes
Gemeente Utrecht moet beter omgaan met algoritmes
Medewerkers van de gemeente Utrecht gaan niet goed genoeg om met het gebruik van algoritmes. Dat concludeert de Utrechtse rekenkamer na onderzoek.
·rtvutrecht.nl·
Gemeente Utrecht moet beter omgaan met algoritmes
Het 'smerige mensenwerk' achter de race naar betere AI
Het 'smerige mensenwerk' achter de race naar betere AI
Om ChatGPT te 'trainen' moest Mophat uit Kenia talloze teksten lezen en beoordelen. Die gingen over schokkende onderwerpen als kannibalisme of seks tussen ouders en kinderen.
·nos.nl·
Het 'smerige mensenwerk' achter de race naar betere AI
AI-chatbots overtuigen razendsnel
AI-chatbots overtuigen razendsnel
AI-chatbots kunnen in minuten blijvend meningen sturen. En vaak blijvend. Dat doen ze beter dan politici.
·binnenlandsbestuur.nl·
AI-chatbots overtuigen razendsnel
The End of Mutual Assured Destruction? | Foreign Affairs
The End of Mutual Assured Destruction? | Foreign Affairs

The End of Mutual Assured Destruction? What AI Will Mean for Nuclear Deterrence Sam Winter-Levy and Nikita Lalwani August 7, 2025 A Russian intercontinental ballistic missile system in Moscow, May 2025 A Russian intercontinental ballistic missile system in Moscow, May 2025 Yulia Morozova / Reuters SAM WINTER-LEVY is a Fellow in Technology and International Affairs at the Carnegie Endowment for International Peace.

NIKITA LALWANI is a Nonresident Scholar at the Carnegie Endowment for International Peace. She served as Director for Technology and National Security at the National Security Council and as Senior Adviser to the Director of the CHIPS Program Office at the U.S. Department of Commerce during the Biden administration.

More by Sam Winter-Levy More by Nikita Lalwani Listen Share & Download Print Save The rapid development of artificial intelligence in recent years has led many analysts to suggest that it will upend international politics and the military balance of power. Some have gone so far as to claim, in the words of the technologists Dan Hendrycks, Eric Schmidt, and Alexandr Wang, that advanced AI systems could “establish one state’s complete dominance and control, leaving the fate of rivals subject to its will.”

AI is no doubt a transformative technology, one that will strengthen the economic, political, and military foundations of state power. But the winner of the AI race will not necessarily enjoy unchallenged dominance over its major competitors. The power of nuclear weapons, the most significant invention of the last century, remains a major impediment to the bulldozing change brought by AI. So long as systems of nuclear deterrence remain in place, the economic and military advantages produced by AI will not allow states to fully impose their political preferences on one another. Consider that the U.S. economy is almost 15 times larger than that of Russia, and almost 1,000 times larger than that of North Korea, yet Washington struggles to get Moscow or Pyongyang to do what it wants, in large part because of their nuclear arsenals.

Some analysts have suggested that AI advances could challenge this dynamic. To undermine nuclear deterrence, AI would need to knock down its central pillar: a state’s capacity to respond to a nuclear attack with a devastating nuclear strike of its own, what is known as second-strike capability. AI technology could plausibly make it easier for a state to destroy a rival’s entire nuclear arsenal in one “splendid first strike” by pinpointing the locations of nuclear submarines and mobile launchers. It could also prevent a rival from launching a retaliatory strike by disabling command-and-control networks. And it could strengthen missile defenses such that a rival could no longer credibly threaten retaliation. If AI could in this way help a state escape the prospect of mutual assured destruction, the technology would make that state unrivaled in its capacity to threaten and coerce adversaries—an outcome in line with increasingly popular visions of AI-enabled dominance.

But undermining the nuclear balance of power will not be easy. Emerging technologies still face very real constraints in the nuclear domain. Even the most sophisticated AI-powered targeting and sensor systems may struggle to locate a mobile nuclear launcher hidden under a bridge, isolate the signatures of a nuclear-armed submarine from the background noise of the ocean, and orchestrate the simultaneous destruction of hundreds of targets on land, air, and sea—with zero room for error. And competitors will respond to their adversaries’ use of new technology with moves of their own to defend their systems, as they have at every turn since the dawn of the atomic age.

Subscribe to Foreign Affairs This Week Our editors’ top picks, delivered free to your inbox every Friday.

Enter your email here. Sign Up

  • Note that when you provide your email address, the Foreign Affairs Privacy Policy and Terms of Use will apply to your newsletter subscription.

Yet even if it does not challenge nuclear deterrence, AI may encourage mistrust and dangerous actions among nuclear-armed states. Many of the steps that governments could take to protect and toughen their second-strike capabilities risk alarming rivals, potentially spurring expensive and dangerous arms races. It also remains possible that AI systems could cross a crucial threshold and exhibit extremely rapid improvements in capabilities. Were that to happen, their advantages to the country that possesses them could become more pronounced and difficult for rivals to contend with. Policymakers should monitor for such a scenario and facilitate regular communication between AI and nuclear experts. At the same time, they should take steps to reduce the probability of accidents and escalation, including assessing nuclear systems for AI-related vulnerabilities and maintaining channels of communication between nuclear powers. Such steps will help ensure that nuclear stability—and not just nuclear deterrence—endures in the age of AI.

FIRST STRIKE Nuclear deterrence depends, most fundamentally, on states’ possessing the ability to retaliate after absorbing a nuclear attack: so long as two nuclear powers credibly maintain a second-strike capability that can inflict unacceptable damage on their adversary, a first strike is suicidal. This understanding has for decades sustained a relatively stable equilibrium. But second-strike capabilities are not invulnerable. States can eliminate delivery platforms, such as road-mobile missile launchers and nuclear submarines, provided that they can find them. The difficulty of finding and disabling these platforms is one of the central obstacles to launching a splendid first strike. The sheer size of China, Russia, the United States, the Atlantic Ocean, and the Pacific Ocean—the most important domains for nuclear competition today—makes such a strike hard to accomplish.

The emergence of powerful AI systems, however, could solve that problem. Capable of processing and analyzing vast amounts of data, a military equipped with such technologies could better target the nuclear assets of its rivals. Consider ground-launched mobile missiles, one of the platforms that underpin Russian and Chinese second-strike capabilities. These missiles, which are carried on vehicles that can hide under camouflage netting, bridges, or tunnels and drive from one concealed location to another, are probably the most difficult element of Russian and Chinese nuclear forces to eliminate. (Silo-based ballistic missiles, by contrast, are much more vulnerable to attack.) The improved speed and scale of AI-empowered intelligence processing may make it easier to conduct operations against these vehicles. AI systems can scour and integrate huge amounts of data from satellites, reconnaissance aircraft, signals intelligence intercepts, stealth drones, ground-based sensors, and human intelligence to more effectively find and track mobile nuclear forces.

When it comes to the sea, the potential convergence of AI with sensing technologies might make the oceans “transparent,” allowing governments to track ballistic missile submarines in real time. That is a particular concern for the United States, which keeps a much higher percentage of its warheads on submarines than Russia or China does. AI could make it easier to track submarines by automating pattern recognition from multiple types of sensors across massive ocean areas and over long durations. It could also help a state hack into the systems its adversaries use to track their own weapons.

Yet even with the assistance of AI, states will not be absolutely sure that a splendid first strike can knock out a rival’s capacity to retaliate. On land, for instance, China and Russia could respond to improvements in U.S. tracking systems with their own countermeasures. They could invest in antisatellite weapons and jamming capabilities. They could adopt old-fashioned low-tech solutions, such as covering roads with netting or constructing decoys, to increase the number of targets an attacker would need to strike. They could order their launchers to emit fewer signals, making it harder for the United States to track them. They could modify the launchers to move faster, widening the target area U.S. strikes would have to hit. They could even use their own AI systems to inject false information into channels monitored by the U.S. intelligence community.

In the maritime domain, too, AI is unlikely to make the sea fully transparent. Any system will struggle to continuously identify, track, and monitor multiple targets over long ranges and amid ocean background noise, especially as submarines get quieter and oceans noisier. Submarines remain extraordinarily difficult to detect when submerged at depth and operating at low speeds, due to how sound moves underwater, shifting ocean conditions, and the inherent noisiness of the marine environment. In the seas, false alarms are frequent; reliable contact is rare. And at sea, as on land, major powers can tip the scales in their favor through various countermeasures: they can jam signals, manipulate sensor data, use undersea sensors and uncrewed vehicles to detect adversary assets, and operate their own submarines in protected bastions close to their home shores. Detection will thus remain a matter of probability, even with the introduction of AI—and states are unlikely to want to risk a splendid first strike on anything less than a safe bet.

COMMAND AND CONTROL Beyond making it easier to find and destroy an adversary’s nuclear weapons, AI could plausibly threaten the nuclear command-and-control systems that would be needed to launch a retaliatory strike. Command-and-control systems are responsible for detecting attacks, reporting them to the relevant authority, and transmitting retaliation orders to nuclear forces. These systems must be able to identify a wide range of missiles; assess d

·foreignaffairs.com·
The End of Mutual Assured Destruction? | Foreign Affairs
AI werkt zó, dat het ons dommer maakt
AI werkt zó, dat het ons dommer maakt
Het geldt misschien niet voor Wouter Dijk (Opinie, 9 juli), die beschreef hoe hij zijn behoefte aan filosoferen verwezenlijkte dankzij AI, maar toch wil ik stellen: AI maakt dommer. Met een klein vrijwilligersteam maak ik een nieuwsbrief over maritiem erfgoed...
·digitalekrant.trouw.nl·
AI werkt zó, dat het ons dommer maakt
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders

Direct naar artikelinhoud Website logo

Voorpagina Editie Best gelezen Rubrieken

Reconstructie Amsterdams algoritme Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders Bron Brechtje Rood Al vaker ging de overheid de mist in met algoritmes bedoeld om uitkeringsfraude te bestrijden. De gemeente Amsterdam wilde het allemaal anders doen, maar kwam erachter: een ethisch algoritme is een illusie.

Dit artikel is geschreven door Jeroen van Raalte redacteur lokale democratie

Gepubliceerd op 6 juni 2025, 22:00

Bewaren Delen Rutger Groot Wassink neemt plaats op zijn zetel in de Amsterdamse raadzaal. Hij zet zijn leesbril op, werpt een blik op de tablet voor zijn neus en richt zich dan tot de zaal met een korte mededeling. “Ik heb besloten de pilot stop te zetten.”

Wilt u elke dag de Middag nieuwsbrief van Trouw ontvangen via e-mail? E-mail Bijna terloops bezegelt de wethouder het lot van een groot experiment van Amsterdam met kunstmatige intelligentie. Jarenlang heeft de gemeente eraan gesleuteld. Maar nu, op deze woensdagmiddag in november 2023, draagt Groot Wassink het ten overstaan van een handvol gemeenteraadsleden ten grave.

Het gesneuvelde project heet Slimme Check, een zelflerend algoritme dat moest helpen bij de beoordeling van bijstandsaanvragen. Het computersysteem is ontwikkeld door de gemeente Amsterdam zelf. Het experiment is gedurfd, ambitieus, maar ook gevoelig. Kunstmatige intelligentie loslaten op de sociale zekerheid is een recept voor controverse.

Amsterdam trok alles uit de kast om een algoritme te bouwen dat de beoordeling van bijstandsaanvragen niet alleen efficiënter, maar ook rechtvaardiger maakt. De gemeente speelt open kaart en nodigt het journalistieke onderzoekscollectief Lighthouse Reports, dat eerder onthullingen deed over kwestieuze bijstandsalgoritmes, uit om over haar schouder mee te kijken.

Toch trekt wethouder Groot Wassink deze novemberdag de stekker uit Slimme Check. Waarom is het project mislukt? En wat leert dit over de valkuilen van kunstmatige intelligentie in de sociale zekerheid? In samenwerking met Lighthouse Reports en MIT Technology Review nam Trouw een kijkje onder de motorkap van het Amsterdamse algoritme.

Bron Brechtje Rood I. Een nobel algoritme Het idee voor een algoritme borrelt zo’n zeven jaar geleden op uit de ambtenarij. Bij de afdeling Werk, participatie en inkomen (WPI) bestaat de wens om de handhaving van de bijstand deels te automatiseren, vertelt strategisch adviseur Harry Bodaar in een kamer op het stadhuis.

De gemeente heeft namelijk een zware dobber aan de bijstand. Jaarlijks ontvangt de gemeente zo’n 7500 aanvragen voor een uitkering. Ambtenaren beoordelen deze handmatig. Zijn er op het eerste oog aanwijzingen voor onrechtmatigheid of zelfs fraude, dan belandt een aanvraag op het bureau van een handhaver. Die kan de indiener ondervragen en huisbezoeken afleggen. Blijkt de aanvraag in orde, dan wordt deze verwerkt. Zo niet, dan volgt een afwijzing.

Erg efficiënt gaat dit allemaal niet, zien ze bij WPI. Risico-inschatting is een complex, tijdrovend karwei. Het aantal aanvragen dat voor nadere controle naar de handhaving wordt doorgestuurd, daalt al jaren: van 15 procent in 2015 naar nog geen 4 procent in 2021. “Dat percentage is te laag, zeg ik uit ervaring”, aldus Bodaar, die al flink wat jaartjes meedraait in de handhaving.

Bovendien leveren die onderzoeken te weinig hits op. Het merendeel (60 procent) van de aanvragen die voor nader onderzoek worden geselecteerd, blijkt uiteindelijk gewoon rechtmatig. “Al die mensen hebben we dus ten onrechte lastiggevallen.”

AI maakt eerste schifting Kan kunstmatige intelligentie (AI) geen uitkomst bieden? Een systeem dat snel én beter een eerste schifting maakt in binnenkomende bijstandsaanvragen?

Amsterdam besluit een eigen computermodel te ontwikkelen. Het gaat om een zogeheten machinelearning-algoritme, dat met een dataset wordt getraind om onrechtmatige aanvragen te herkennen. De gedachte is dat AI patronen kan ontwaren die mensen ontgaan.

Aan de hand van vijftien features, kenmerken zoals inkomen en woonsituatie, bepaalt het model of een bijstandsaanvraag ‘onderzoekswaardig’ is. Zo ja, dan neemt een handhaver het dossier onder de loep.

Bron Bart Friso Amsterdam is niet de eerste gemeente die voor de verleiding van AI valt. De technologie oogt veelbelovend, maar ongelukken liggen op de loer. In Nederland kwam het al tot meerdere schandalen.

Zo verbood de rechter in 2020 het gebruik van SyRI, een overheidssysteem bedoeld om uitkeringsfraude op te sporen. Het jaar daarop staakte de gemeente Nissewaard de samenwerking met een databedrijf dat bijstandsaanvragen analyseerde op frauderisico’s – het systeem bleek onbetrouwbaar. En Rotterdam stopte in 2023 met een bijstandsalgoritme nadat Lighthouse Reports onthulde dat het alleenstaande moeders discrimineerde. Zelflerende algoritmes speelden ook een rol in de toeslagenaffaire bij de Belastingdienst.

Geen klopjacht, geen geheimen Op het Amsterdamse stadhuis zijn ze zich bewust van deze miskleunen. De progressieve hoofdstad wil het allemaal anders doen. Geen ontspoorde klopjacht op vermeende fraudeurs. Geen geheimzinnigheid. Geen vooringenomen algoritmes die kwetsbare groepen benadelen. Ditmaal moet kunstmatige intelligentie de burger dienen.

Het doel van Slimme Check is dan ook niet zoveel mogelijk fraudeurs pakken. De gemeente heeft een nobelere insteek: schulden voorkomen. “Als iemand te veel bijstand heeft ontvangen, moeten wij van de wet dat bedrag tot op de laatste cent terugvorderen”, schetst Bodaar.

Dat komt veel voor. De participatiewet is zo ingewikkeld geworden, dat een foutje snel is gemaakt. Ongeveer tienduizend Amsterdammers moeten momenteel (een deel van) hun ontvangen uitkering terugbetalen aan de gemeente. Een algoritme kan helpen het aantal uitkeringen dat onterecht wordt verstrekt te verminderen, redeneert de gemeente.

“We willen graag minder mensen met een bijstandsschuld”, zegt Bodaar. “Dus kiezen we voor preventie.”

II. Het gevaar van proxy’s De Amsterdamse programmeurs gaan volgens het boekje te werk. Naar gevoelige kenmerken als etniciteit, nationaliteit en geslacht kijkt het algoritme niet. Door het model te beperken tot vijftien features – ter vergelijking: het verboden overheidssysteem SyRI telde bijna negentig risico-indicatoren – willen ze de kans op onbedoelde discriminatie door het algoritme uitsluiten.

Want via omwegen, zogeheten proxy’s, kunnen vooroordelen alsnog een computermodel insluipen. Een bekend voorbeeld hiervan zijn postcodes. Op het oog is dat een objectieve maatstaf, maar wanneer in een wijk veel mensen met een migratieachtergrond wonen, kan dat ertoe leiden dat het algoritme alsnog onevenredig vaak een etnische groep als risico bestempelt.

Amsterdam wil daarnaast voorkomen dat het systeem een zwarte doos wordt. Slimme Check moet een explainable (uitlegbaar) algoritme zijn: een leek moet kunnen begrijpen hoe het model tot zijn oordeel komt. “Een beetje een marketingterm”, stelt Jurriaan Parie. Hij is directeur van Algorithm Audit, een Haagse stichting die maatschappelijke toepassingen van algoritmes onderzoekt. “Het algoritme is ietsje begrijpelijker. Maar het blijft te complex om aan gewone burgers uit te leggen.”

Eigenlijk, zegt zijn collega Ylja Remmits, moet je in zo’n model alleen variabelen stoppen die een logisch verband hebben met wat je probeert te voorspellen. “Neem de kleur van iemands auto. Die zegt natuurlijk niets over frauderisico’s, maar zou in een computermodel wel een statistische correlatie kunnen vertonen met fraude.”

Om zulke missers voor te zijn, wint het Amsterdamse team in 2022 advies in bij een keur aan adviesgroepen. Zo laten ze een mensenrechtenassessment, een privacytoets en een AI-assessment uitvoeren. Ook de Commissie Persoonsgegevens en adviesbureau Deloitte buigen zich over het project. Na wat mitsen en maren geven ze allemaal hun zegen.

Behalve één.

III. Wantrouwen en kritiek In een Amsterdams café parkeert Anke van der Vliet (76) haar rollator, vist haar leesbril uit een etui en zet zich aan een tafeltje. Al decennialang komt ze op voor de belangen van mensen in de bijstand. Dit zijn er zo’n veertigduizend in Amsterdam. Tot voor kort was ze lid van de Participatieraad, die namens Amsterdamse uitkeringsgerechtigden de gemeente gevraagd en ongevraagd advies geeft.

Ook over Slimme Check. “Wij wantrouwden het vanaf het begin”, vertelt Van der Vliet. “Iedereen was ertegen.” Dat de gemeente een heel systeem optuigt om een handvol fraudeurs te pakken, is disproportioneel, zo schrijft de Participatieraad in het voorjaar van 2022 in een negatief advies. Daarin uit de raad ook zorgen over privacy: ‘De raad is van mening dat een dergelijk experiment de fundamentele grondrechten van burgers aantast en dient te worden gestaakt.’

Intern volgen meer kritische geluiden. Begin 2023, als het computermodel zo goed als gereed is voor een test in de praktijk, publiceert de gemeente het plan voor Slimme Check in het algoritmeregister. Als eerste stad in Nederland hanteert Amsterdam een openbaar overzicht van alle algoritmes die de burger kunnen raken.

Bron Brechtje Rood ‘Een slecht idee’ Als Hans de Zwart over het project leest, valt hij bijna van zijn stoel. “Ik dacht meteen: dit is een slecht idee.” De Zwart geldt als een luis in de pels. De voormalig directeur van Bits of Freedom is als techniekfilosoof verbonden aan de Hogeschool van Amsterdam, bij een afdeling die op verzoek van de gemeente kritisch meedenkt over technologische ontwikkelingen.

Quote van techniekfilosoof Hans de Zwart . In de computerwereld klinkt steeds meer de kritiek dat algoritmes zich niet lenen voor fraudebestrijding techniekfilosoof Hans de Zwart Al gaat de gemeente nog zo zorgvuldig te werk, volgens hem blijft het risico op geautomatiseerde discriminatie levensgroot bij zo’n computermodel. “Je moet heel terughoudend zijn met het gebruik van algoritmes voor dit soort doeleinden

·trouw.nl·
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders
Opinie: Graag minder AI op school, want we willen zelf leren nadenken
Opinie: Graag minder AI op school, want we willen zelf leren nadenken

Opinie: Graag minder AI op school, want we willen zelf leren nadenken

In lessen zonder laptops en telefoons stellen klasgenoten meer vragen en leren ze meer, merkt Donna Janssen. Daarom stelt ze: maak leerlingen niet afhankelijk van chatbots.

Dit artikel is geschreven door Donna Janssen Gepubliceerd op 3 oktober 2025, 15:01 Dit is een ingezonden opiniestuk. Het standpunt in dit artikel is niet per definitie ook het standpunt van Trouw.

Kunstmatige intelligentie lijkt niet te stoppen, ook niet in het onderwijs. En zeker, van het beantwoorden van simpele vragen tot het oplossen van een wiskundige vergelijking tot een volledige samenvatting van een boek dat je leest voor Nederlands: AI is een goed hulpmiddel. Maar nu dreigt het gevaar dat we de ontwikkeling van het jonge puberbrein opofferen aan gemak. Ik maak mij hierom grote zorgen. Ik zie namelijk zelf op school hoeveel AI wordt gebruikt in de lessen. Sommige leerlingen gebruiken het nauwelijks, sommige gebruiken het voor elke opdracht die ze voor school krijgen. Daarom is het tijd voor maatregelen.

Op school zie ik hoe snel AI zijn weg vindt in het klaslokaal. Leerlingen gebruiken het steeds meer, voor het bedenken van creatieve verhalen of om een opiniestuk zoals dit te schrijven. En precies daar begint het te wringen. Ik erger mij kapot aan het feit dat er leerlingen zijn die een 9 halen voor een opdracht die ze aan ChatGPT hebben uitbesteed, terwijl ik die opdracht zélf heb gemaakt en een 7 krijg.

Volgens het kennisplatform DigiWijzer heeft het intensieve gebruik van AI-gevolgen voor de ontwikkeling van jongeren. Het leidt tot minder creativiteit en minder flexibiliteit, en juist die vaardigheden heb je in het leven hard nodig. Door steeds vaker op AI te vertrouwen, laten we onze hersenen letterlijk minder hard werken. ChatGPT beantwoordt zorgvuldig al je vragen. Het is dus heel verleidelijk om denkwerk aan ChatGPT uit te besteden. En dat zie ik terug in het onderwijs. Sommige leerlingen weten niet eens hoe ze moeten beginnen met een opdracht zonder hulp van AI.

Ongelijkheid in het klaslokaal Daarnaast zorgt het toenemende gebruik van AI voor ongelijkheid in het klaslokaal. Niet iedereen weet hoe je AI op een slimme manier gebruikt. En ook de beoordeling is oneerlijk: docenten hebben vaak niet door of iets door een leerling zelf is geschreven of door AI. Het verschil tussen inzet en imitatie wordt steeds moeilijker te herkennen. Dat brengt mij bij de belangrijkste vraag: hoe kunnen we het gebruik van AI terugdringen? Want hoewel we AI niet kunnen verbieden, kunnen we wél bedenken hoe we het gebruik ervan in goede banen kunnen leiden.

Het gevaar dreigt dat we de ontwikkeling van het jonge puberbrein opofferen aan gemak

Een maatregel die je kunt nemen is het geven van meer mondelinge of klassikale lessen. Wanneer je opdrachten klassikaal of mondeling bespreekt, wordt het veel lastiger om AI te gebruiken. Leerlingen moeten zelf nadenken, zelf verwoorden wat ze bedoelen, en kunnen niet zo gemakkelijk AI gebruiken. Bovendien zorgt deze maatregel voor meer interactie en betere uitleg. Leerlingen zullen vaker en meer vragen stellen, omdat ze beter letten op de lesstof.

Zonder laptops wordt er beter opgelet Dit merk ik zelf ook in lessen waar geen laptops te bekennen zijn. Leerlingen letten vele malen beter op, begrijpen de lesstof beter en stellen meer vragen. Als we geen laptops meer gebruiken, hebben leerlingen geen toegang meer tot ChatGPT. Zeker niet op scholen waar ook een telefoonverbod geldt. Daardoor letten leerlingen beter op de lesstof en gaan ze meer zelf nadenken.

Sommige leerlingen weten zonder AI niet eens hoe ze moeten beginnen met een opdracht

AI verdwijnt niet, en dat hoeft ook niet. Maar het risico bestaat dat leerlingen te afhankelijk worden van AI-gebruik in de lessen. Het kan een krachtig hulpmiddel zijn, mits we er verstandig mee omgaan. Als we dat niet doen, dreigen we iets waardevols kwijt te raken: het zelf nadenken, onze creativiteit en het leren maken van fouten. Daarom luidt mijn oproep: laat gemak niet belangrijker worden dan ontwikkeling.

·trouw.nl·
Opinie: Graag minder AI op school, want we willen zelf leren nadenken
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in oorlogsvoering. Denk aan drones, missies plannen met hulp van AI, of simulaties die onderhoud van militair materieel voorspellen. Tegelijkertijd brengt AI grote risico’s met zich mee op het gebied van veiligheid, verantwoordelijkheid en internationaal recht. Nederland werkt samen met Zuid-Korea om het verantwoord gebruik van AI in het militaire domein op de internationale agenda te zetten. Ook tijdens de Algemene Vergadering van de Verenigde Naties (AVVN).
·rijksoverheid.nl·
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion

"We're not done yet," he boomed, threatening like some Mafia boss the dying Gaza Strip at the United Nations General Assembly, which was as empty as a theater that's been screening the same movie for too many weeks. "We're not done yet," he also threatened Israelis who want him out of their lives already.

Prime Minister Benjamin Netanyahu's speech Friday highlighted again the fact that we are not done yet with him and that he is not done yet with the Gaza Strip and with us.

Despite the bizarre lapel pin with a QR code linking to images and videos of the October 7 massacre, the childish gimmicks, the pop quiz, the map and the loudspeakers in Gaza, he is still a first-rate demagogue: a mass murderer, the No. 1 most-wanted – the very fact that he is allowed on the dais at the UN is a scandal – posing as Mother Teresa.

Have American Jews pushed Israel toward extremism or moderation? Anyone listening to him who knew nothing about what his country is doing in Gaza and the West Bank might be tempted to think that the Israel Defense Forces is the Salvation Army, that Israel was competing with UNICEF in aiding needy children, and that he himself is a lifelong follower of Mahatma Gandhi's teachings. Yes, Netanyahu still has it.

Get ahead of the conversation with Haaretz’s opinion editor’s top commentaries Email * post@stylo.nl Please enter a valid email address Sign Up The beginning boded well. The mass exodus from the hall should have shamed every Israeli, finally causing them to ask: Perhaps Israel did something wrong after all? It's safe to assume that most Israelis would respond, "It's the antisemitism, stupid."

A rogue Israeli force operates in Gaza, endangering soldiers and Palestinian civilians Abandon the hostages and wipe out Gaza? Okay. Israel ousted from Eurovision? The horror Recognizing Palestine: Who's doing it and what it actually means Then came some authenticity: The prime minister proudly related how Israel hammered, destroyed, crushed, crippled and devastated the entire surrounding region. Dozens of synonyms for annihilation. He used his customary black marker to draw check marks on last year's map, covering the entire zone of destruction and perhaps ones to come as well. What an honor. Only Gaza was missing. And the West Bank. Maybe he forgot them.

  • Advertisement -

A group of sycophants – particularly small this year, without all the wealthy Jews of previous years – applauded; the chief of staff of the Prime Minister's Office, Tzachi Braverman, cast severe looks all around, making sure that no one refrained.

Then came the demagoguery, the propaganda and the unbearable lies, even by his standards. "You saw the picture of Evyatar David. Emaciated, forced to dig his own grave," he said. Did you, prime minister, see the picture of Marwan Barghouti in an Israeli prison?

Open gallery view Smoke rises following an Israeli military strike in Gaza City, as seen from the central Gaza Strip, Friday.Credit: Abdel Kareem Hana/AP Did you see the human skeleton, this man who could have brought peace? You've turned good into evil … and evil into good, he preached in Biblical terms to European countries that have recognized a Palestinian state.

  • Advertisement -

By good you meant Israel, Netanyahu? How did your hand not shake when you wrote these words? How did your voice not tremble when you said them? Is it good to kill 1,000 babies under the age of 1 and 20,000 children overall? To create 40,000 new orphans? To systematically obliterate Gaza, leaving not a single stone standing?

If that is your good, then what is evil? Is it humane to speak of allowing aid equal to 3,000 calories a day for every resident into the Strip? Is mentioning a beautiful young couple from the Israeli embassy in Washington that was murdered nearby legitimate for the person who is responsible for killing tens of thousands of beautiful young couples in Gaza – killing that he isn't done with, by his own admission?

Is it fair to claim (without stating the source) that nearly 90 percent of Palestinians supported the October 7 attack, without saying how many Jewish Israelis support the genocide, some in joy and some in silence? The only true figure he quoted was that over 90 percent of Israeli lawmakers voted against the imposition of a Palestinian state. How true and how shameful.

  • Advertisement -

The pinnacle of this mendacious demagoguery came in the defense against claims of genocide. Did the Nazis ask the Jews kindly to leave, he asked, comparing Israel to the Nazis. Well, Mr. Netanyahu, the Nazis expelled Jews before the extermination began.

Between 1939 and 1941 they expelled and deported Jews from Germany, Czechoslovakia and Austria to occupied Poland. Their Madagascar Plan recalls your and Donald Trump's Riviera plan. The Armenian holocaust also began with mass expulsions.

We're not done yet, said my prime minister, the prime minister of everyone.

"We're not done yet," he boomed, threatening like some Mafia boss the dying Gaza Strip at the United Nations General Assembly, which was as empty as a theater that's been screening the same movie for too many weeks. "We're not done yet," he also threatened Israelis who want him out of their lives already. Prime Minister Benjamin Netanyahu's speech Friday highlighted again the fact that we are not done yet with him and that he is not done yet with the Gaza Strip and with us.Despite the bizarre lapel pin with a QR code linking to images and videos of the October 7 massacre, the childish gimmicks, the pop quiz, the map and the loudspeakers in Gaza, he is still a first-rate demagogue: a mass murderer, the No. 1 most-wanted – the very fact that he is allowed on the dais at the UN is a scandal – posing as Mother Teresa. Have American Jews pushed Israel toward extremism or moderation? Subscribe0:00-- : --15Skip 15 seconds backwards Play audio15Skip 15 seconds ahead1XChange playback rate from 1 to 1.25 Mute audioAnyone listening to him who knew nothing about what his country is doing in Gaza and the West Bank might be tempted to think that the Israel Defense Forces is the Salvation Army, that Israel was competing with UNICEF in aiding needy children, and that he himself is a lifelong follower of Mahatma Gandhi's teachings. Yes, Netanyahu still has it. Get ahead of the conversation with Haaretz’s opinion editor’s top commentariesEmail *Please enter a valid email addressSign Up The beginning boded well. The mass exodus from the hall should have shamed every Israeli, finally causing them to ask: Perhaps Israel did something wrong after all? It's safe to assume that most Israelis would respond, "It's the antisemitism, stupid." A rogue Israeli force operates in Gaza, endangering soldiers and Palestinian civiliansAbandon the hostages and wipe out Gaza? Okay. Israel ousted from Eurovision? The horrorRecognizing Palestine: Who's doing it and what it actually meansThen came some authenticity: The prime minister proudly related how Israel hammered, destroyed, crushed, crippled and devastated the entire surrounding region. Dozens of synonyms for annihilation. He used his customary black marker to draw check marks on last year's map, covering the entire zone of destruction and perhaps ones to come as well. What an honor. Only Gaza was missing. And the West Bank. Maybe he forgot them.- Advertisement - 00:00/01:01TEL AVIV - YAFO 2024Truvid מעבר לכתבה.trv-wrapper.trv-vertical, .trv-vertical .trvdfloater #slider, .trv-vertical .trvdfloater {border-radius: 12px !important;}#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .media-video, .swipe-video video ,#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .trv-media-controls, #br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .video-overlay, #br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .info-overlay { -webkit-touch-callout: none; -webkit-user-select: none; -khtml-user-select: none; -moz-user-select: none; -ms-user-select: none; -o-user-select: none; user-select: none; }#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .sprite-background { background: transparent url("data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAABNoAAAAoCAYAAAAonpdLAAAAGXRFWHRTb2Z0d2FyZQBBZG9iZSBJbWFnZVJlYWR5ccllPAAAA25pVFh0WE1MOmNvbS5hZG9iZS54bXAAAAAAADw/eHBhY2tldCBiZWdpbj0i77u/IiBpZD0iVzVNME1wQ2VoaUh6cmVTek5UY3prYzlkIj8+IDx4OnhtcG1ldGEgeG1sbnM6eD0iYWRvYmU6bnM6bWV0YS8iIHg6eG1wdGs9IkFkb2JlIFhNUCBDb3JlIDUuNi1jMTQyIDc5LjE2MDkyNCwgMjAxNy8wNy8xMy0wMTowNjozOSAgICAgICAgIj4gPHJkZjpSREYgeG1sbnM6cmRmPSJodHRwOi8vd3d3LnczLm9yZy8xOTk5LzAyLzIyLXJkZi1zeW50YXgtbnMjIj4gPHJkZjpEZXNjcmlwdGlvbiByZGY6YWJvdXQ9IiIgeG1sbnM6eG1wTU09Imh0dHA6Ly9ucy5hZG9iZS5jb20veGFwLzEuMC9tbS8iIHhtbG5zOnN0UmVmPSJodHRwOi8vbnMuYWRvYmUuY29tL3hhcC8xLjAvc1R5cGUvUmVzb3VyY2VSZWYjIiB4bWxuczp4bXA9Imh0dHA6Ly9ucy5hZG9iZS5jb20veGFwLzEuMC8iIHhtcE1NOk9yaWdpbmFsRG9jdW1lbnRJRD0ieG1wLmRpZDphYzE1ODUxMS01M2M5LWQzNDYtOGZlNC1hZTI1ZmI5NTA4YzgiIHhtcE1NOkRvY3VtZW50SUQ9InhtcC5kaWQ6MEQ5RDQ5RDcwQ0UyMTFFOThFMTVFQThERTQzOThERDkiIHhtcE1NOkluc3RhbmNlSUQ9InhtcC5paWQ6MEQ5RDQ5RDYwQ0UyMTFFOThFMTVFQThERTQzOThERDkiIHhtcDpDcmVhdG9yVG9vbD0iQWRvYmUgUGhvdG9zaG9wIENDIDIwMTUgKFdpbmRvd3MpIj4gPHhtcE1NOkRlcml2ZWRGcm9tIHN0UmVmOmluc3RhbmNlSUQ9InhtcC5paWQ6MUQ3QUQ4Nzk3Q0I1MTFFNUIzMTRCMDIxQjZBMkU5NjUiIHN0UmVmOmRvY3VtZW50SUQ9InhtcC5kaWQ6MUQ3QUQ4N0E3Q0I1MTFFNUIzMTRCMDIxQjZBMkU5NjUiLz4gPC9yZGY6RGVzY3JpcHRpb24+IDwvcmRmOlJERj4gPC94OnhtcG1ldGE+IDw/eHBhY2tldCBlbmQ9InIiPz4FuWpAAAAxdUlEQVR42uxdB3wU1fY+m4QakF4EURAVYwMCiIgIiGIUFewoigg+LOhflKeiFCn6DD556rM8VEQEaVIFEVBBwK6wUoTQRERARCDSAoGU/3wzZ5LJsrM7bUuS8/1+55fN7pR7z87ee+53yvXl5+eTQCAQCAQCgUAgEAgEAoFAIHCHBFGBQCAQCAQCgUAgEAgEAoFA4B5CtAkEAoFAIBAIBAKBQCAQCAQeQIg2gUAgEAgEAoFAIBAIBAKBwAMI0SYQCAQCgUAgEAgEAoFAIBB4gCRRgUAgEAhKEnw+X8HLgL9AfsBfT4ENhgz397x
·haaretz.com·
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion
Gemeenten testen hulp van AI
Gemeenten testen hulp van AI
Welk werk zou AI zoal kunnen overnemen van ambtenaren? Amsterdam en Beverwijk gingen in een pilot met die vraag aan de slag. De ene gemeente bij de afhandeling van burgerbezwaren, de andere bij de omgevingsvergunningen. ‘Als je het vergunningsproces automatiseert, speel je medewerkers vrij.’
·binnenlandsbestuur.nl·
Gemeenten testen hulp van AI
De AI-revolutie gaat ten onder aan bureaubagger
De AI-revolutie gaat ten onder aan bureaubagger
Maakt kunstmatige intelligentie de dienstensector productiever? Mathijs Bouman was ooit optimistisch. Inmiddels een stuk minder.
·fd.nl·
De AI-revolutie gaat ten onder aan bureaubagger
Energievraag van AI
Energievraag van AI
De snelle groei van datacentra voor kunstmatige intelligentie (AI) zet het energienet onder druk en verhoogt de CO2-uitstoot.
·esb.nu·
Energievraag van AI
Hallo, spreek ik met een AI?
Hallo, spreek ik met een AI?
Overheidscommunicatie die is gemaakt met behulp van generatieve AI moet als zodanig te herkennen zijn.
·binnenlandsbestuur.nl·
Hallo, spreek ik met een AI?
Hoe gebruik je AI zo duurzaam mogelijk?
Hoe gebruik je AI zo duurzaam mogelijk?
Een vraag aan ChatGPT stellen kost evenveel energie als 14 minuten een lamp laten branden. Het genereren van een afbeelding staat gelijk aan het opladen van een mobieltje. Klachten genoeg over energieslurpende AI. Maar kun je er iets aan doen?
·trouw.nl·
Hoe gebruik je AI zo duurzaam mogelijk?
Vier redenen waarom AI-beeld populair is bij uiterst rechts - NRC
Vier redenen waarom AI-beeld populair is bij uiterst rechts - NRC

Ga direct naar inhoudGa naar ‘artikel luisteren’

Vier redenen waarom AI-beeld populair is bij uiterst rechts Achtergrond Artificiële intelligentie Radicaal-rechtse partijen in Europa omarmen AI – zoals ook PVV-leider Wilders met de afbeelding van een boze moslimvrouw. Wat maakt AI voor deze partijen zo aantrekkelijk?

AuteursMarko de HaanHanna Hosman Gepubliceerd op 22 augustus 2025

Leestijd 6 minuten

Luisteren Open ‘luister naar artikel’

Leeslijst

De Argentijnse president Javier Milei afgebeeld als superman. Beeld via Instagram

AI maakt fantasieën waar. In superheldenpak redt de ultrarechtse president Javier Milei een vrouw in een jurk in de kleuren van de Argentijnse vlag. Trump deelt een beeld van zichzelf als paus. Elon Musk presenteert zich als Romeins krijgsheer. Of, kwaadaardiger: in Nederland visualiseert Wilders zijn schrikbeeld van ‘islamitisch Nederland’ met een nepvideo. Of biedt hij, zoals onlangs, de kiezer met een AI-gegenereerd beeld de keus tussen een glimlachende blonde vrouw (‘PVV’) en een bozige, oude vrouw met hoofddoek (‘PvdA’).

In 2024, een jaar met veel verkiezingen wereldwijd, analyseerde hoogleraar kunstmatige intelligentie en maatschappij Claes de Vreese (Universiteit van Amsterdam) met zijn team de inzet van AI-beelden. In alle verkiezingen speelde dit nieuwe instrument een rol. „Als je vraagt: is dit het begin van het einde van de democratie? Waarschijnlijk niet. Maar we moeten ons realiseren dat dit soort materiaal en technieken nu volop onderdeel zijn van campagnes”, zegt De Vreese tegen NRC.

Rond de vorige landelijke verkiezingen in Nederland (in november 2023) constateerde De Groene Amsterdammer dat AI vooral door de achterban van de PVV werd ingezet. In de campagne voor de komende verkiezingen in oktober worden AI-beelden ook door de PVV-leider gebruikt. Vaak is niet duidelijk wie die beelden heeft gecreëerd. Tot nu toe beperkt het gebruik van AI-beelden in de politiek zich voornamelijk tot radicaal- en extreem-rechts, zien de experts die NRC sprak. Waarom is dit juist voor die politieke hoek zo’n aantrekkelijk instrument?

1 Gevoelde realiteit Dat Geert Wilders inspeelt op angstgevoelens en deze aanwakkert met beelden tegen de islam, is niet nieuw, zegt Mariken van der Velden, universitair hoofddocent politieke communicatie aan de Vrije Universiteit in Amsterdam. In 2008 zette Wilders de korte film Fitna (zestien minuten) op internet, waarin Koranverzen worden afgewisseld met beelden van aanslagen, zoals die op 11 september 2001 in New York en in Madrid op 11 maart 2004. Dat filmpje leidde tot internationale ophef, rellen in Nederland, aangiftes en een Kamerdebat. In 2017 deelde Wilders een afbeelding waarop D66-leider Alexander Pechtold gefotoshopt was in een beeld van een demonstratie voor de invoering van de sharia.

Nieuw is dat dergelijke beelden met kunstmatige intelligentie kunnen worden gemaakt. AI-tools kunnen makkelijk worden ingezet om „een ‘gevoelsmatige realiteit’ te visualiseren die niet bestaat, maar die wel een stemming oproept en versterkt”, zei hoogleraar digitale cultuur en kunsten Roland Meyer (Universität Zürich en Zürcher Hochschule der Künste) in maart in de Duitse podcast Sozusagen.

Verkiezingspost van PVV-leider Wilders.Beeld via X

De extreemrechtse AfD in Baden-Württemberg deelde in december 2023 bijvoorbeeld een AI-afbeelding van een militair beveiligde kerstmarkt, omheind met prikkeldraad. De partij wilde hiermee inspelen op de angst voor incidenten op kerstmarkten na eerdere aanslagen. Er was, verklaarde een persmedewerker, namelijk geen echte afbeelding die het gevoel weergaf dat de partij over wilde brengen.

De ‘gevoelde realiteit’ die uiterst rechtse partijen uitdragen, past bij de utopische visioenen die ze hun kiezers graag voorspiegelen. En juist in het presenteren van geïdealiseerde toekomstbeelden zijn populistische en radicaal-rechtse partijen beter dan andere, betoogt Étienne F. Augé, propaganda-onderzoeker aan de Erasmus Universiteit. Dat is makkelijker dan het propageren van een genuanceerde toekomstvisie waarin problemen altijd blijven bestaan. En: makkelijker te visualiseren, zeker met kunstmatige intelligentie.

2 Alles voor aandacht Aandacht is alles op het internet. Hoe controversiëler en disruptiever de boodschap, hoe meer aandacht deze genereert. Daarbij helpt het als een bericht over de schreef gaat, onjuist is, een uitvergroting of extreme versie van de werkelijkheid toont. Daar maken populistische en radicaal-rechtse partijen gebruik van.

Uiterst rechts wist online al goed gebruik te maken van memes. Onderzoeker Sal Hagen (UvA), die promoveerde op onderzoek naar het populaire extreemrechtse forum 4chan, zag dat de „sterke meme-cultuur” vruchtbare voedingsbodem is voor radicaal- of extreem-rechtse bewegingen, vertelt hij in een blog van de UvA. Juist omdat je met memes goed een simpel, zwart-wit wereldbeeld kan neerzetten dat aansluit bij een populistische boodschap.

Elon Musk als Romeins krijgsheer.

Door Trump gedeeld beeld van zichzelf als paus.Beeld via X/Truth Social Bij gematigde partijen past het instrument van controverse minder. Zij zien meer bezwaren bij grensoverschrijding en zijn inherent gericht op nuance. Dat genereert minder likes en reacties, waardoor ze op achterstand staan. „Gematigde partijen hebben doorgaans meer ethische bezwaren bij het gebruik van AI-technologieën”, ziet Sanne Kruikemeier, hoogleraar digitale media en samenleving aan de Wageningen Universiteit. Die bezwaren leven ook bij hun kiezers. Daardoor is het afbreukrisico voor hen groter, zegt Kruikemeier. Traditionele middenpartijen hechten nog altijd aan feiten. Geïdealiseerde, niet-bestaande beelden passen daar niet bij.

Bij internetpropaganda speelt er nog iets waardoor uiterst rechtse, populistische partijen vooroplopen. In de jaren nul werden sociale media vooral gezien als open bron van informatie, mondiaal verbindend en democratisch vernieuwend. Nu er meer ethische bezwaren spelen, zoals zorgen over privacy en geestelijk welzijn van gebruikers, zijn gematigde partijen huiverig om sociale media ten volle te benutten. Uiterst rechtse partijen hebben die bezwaren minder en hebben vaker een afwijzende houding tegenover traditionele media. Dat dwingt hen te innoveren en nieuwe kanalen te kiezen.

Neem TikTok: in de aanloop naar de verkiezingen van twee jaar geleden waren veel partijen terughoudend met het gebruik, vanwege de Chinese eigenaar van het platform. VVD en D66 vertrokken in 2023 daarom bijvoorbeeld tijdelijk van TikTok. FVD-partijleider Thierry Baudet zette er juist vol op in, en is met ruim 243.000 volgers de grootste Nederlandse politicus op TikTok. En dat is relevant: 40 procent van de Nederlandse jongeren informeert zich via dit platform.

3 Praktisch, toegankelijk, goedkoop AI-propaganda is op drie punten een verheviging van wat academici ‘traditionele propaganda’ noemen: schaal, bereik en snelheid. Een enorme hoeveelheid content kan gemaakt worden tegen een lage prijs.

Daar is een woord voor: ‘slopaganda’. De drie academici die de term dit jaar hebben gemunt, Michal Klincewicz (Tilburg School of Humanities and Digital Sciences), Mark Alfano, (Macquarie University) en Amir Ebrahimi Fard (onafhankelijk academicus), borduren ermee voort op het woord ‘slop’, in het Nederlands ‘drek’, een nieuwe term voor de lage kwaliteit van de AI-beelden die sociale media overspoelt.

Buiten gevestigde politieke partijen, die in veel gevallen budget hebben voor reclame, kan er zo makkelijk van ‘onderop’ campagne worden gevoerd, door individuen. Zo zie je ook dat de AI-beelden die politici delen lang niet altijd door henzelf gemaakt zijn.

De AI-beelden die politici delen, zijn lang niet altijd door henzelf gemaakt Het maakproces gaat bovendien sneller dan ooit. De beelden zijn razendsnel en in overrompelende hoeveelheid te maken. Dat kan een strategie zijn. Zoals de regeerstijl van Trump vaak ‘flooding the zone’ wordt genoemd met de opeenstapeling van ‘executive orders’, zo zijn AI’s alternatieve weergaven van de werkelijkheid en controversiële statements nauwelijks bij te benen, laat staan te pareren.

Die combinatie, van snelheid, bereik en schaal, maakt het mogelijk heel gericht een „eindeloze stroom” aan „dreigend uitziende berichten” op sociale media te verspreiden, concluderen Klincewicz, Alfano, en Fard. En ook als duidelijk is dat die berichten niet of slechts gedeeltelijk waar zijn, blijkt uit onderzoek dat zulke beelden blijven hangen, en blijvend van invloed kunnen zijn op denkbeelden.

4 Heldere esthetiek AI is een praktisch instrument om politiek in te zetten. Daarbij betoogt hoogleraar Roland Meyer dat de esthetiek van veel AI-beelden goed past bij populistische fantasieën, zoals de Heimatidylle van de AfD.

De beelden hebben een tijdloosheid: ze zijn moeilijk te dateren, juist doordat ze een samensmelting vormen van miljoenen online gepubliceerde beelden. Dat maakt de beelden „inherent nostalgisch”, zei Meyer afgelopen mei in zijn lezing over de esthetiek van AI op een conferentie in Hamburg. AI is eigenlijk, zegt hij daar, een „nostalgiemachine”. Het borduurt voort op dat wat er al was, waarmee het beelden maakt die waar hadden kúnnen zijn. Dat verbindt Meyer aan de conservatieve hang naar het verleden.

AI-beeld van de Amerikaanse president Trump en de Israëlische premier Netanyahu.Beeld via Truth Social

Daarnaast fungeren veel AI-beeldgeneratoren als ‘clichéversterkers’, ziet Meyer, door hoe de programma’s gebouwd worden. Hij laat in zijn lezing zien welke beelden Midjourney, een AI-programma dat tekst in beeld omzet, genereert bij het verzoek een ‘happy german family’ te tonen. Blonde moeder in jurk, donkerblonde vader in witte blouse in werkpak, met vrolijke blonde kinderen tegen een achtergrond van Duits vakwerk en landschap.

Zulke plaatjes, legt hij uit in Sozusagen, zijn „extreem vereenvoudigd, heel helder leesbaar, geen enkele ambivalentie”. Er gaat een soort pseudo-realisme van uit, met een zweem va

·nrc.nl·
Vier redenen waarom AI-beeld populair is bij uiterst rechts - NRC
AI en de soevereine cloud
AI en de soevereine cloud
Onafhankelijkheid is van groot belang.
·binnenlandsbestuur.nl·
AI en de soevereine cloud
Hoe AI de droneoorlog in Oekraïne bepaalt en de ethische discussie wegdrukt
Hoe AI de droneoorlog in Oekraïne bepaalt en de ethische discussie wegdrukt
De droneoorlog in Oekraïne gaat een nieuwe fase in met de inzet van autonome AI-technologie. Die razendsnelle ontwikkeling drukt de ethische discussie weg. ‘We zijn al te laat, maar moeten erger voorkomen.’
·trouw.nl·
Hoe AI de droneoorlog in Oekraïne bepaalt en de ethische discussie wegdrukt