AI

94 bookmarks
Custom sorting
Fröhliche Weihnachten, deine KI
Fröhliche Weihnachten, deine KI
Immer häufiger wird KI verwendet, um Weihnachtsgrüße zu formulieren. Ist das nun gut oder schlecht?
·evangelisch.de·
Fröhliche Weihnachten, deine KI
AGI, kunstmatige intelligentie die zelf denkt, komt ons redden – althans, zo denkt big tech
AGI, kunstmatige intelligentie die zelf denkt, komt ons redden – althans, zo denkt big tech

Alwetende AI Wat als wij God scheppen? De tech-wereld droomt van AGI, kunstmatige intelligentie die zelf kan denken. Dit technologische opperwezen zou ons de last ontnemen zelf beslissingen te nemen. Eindelijk smelten we samen met de machine.

Tom Grosfeld beeld Aart-Jan Venema

17 december 2025 – verschenen in nr. 51-52

Cadeau geven

Delen

Leeslijst

Luister naar dit artikel

José Arcadio Buendía, een van de hoofdpersonen in Gabriel García Márquez’ Honderd jaar eenzaamheid, raakt, nadat hij en zijn vriend Melquíades in hun alchemielaboratorium een fototoestel hebben uitgevonden, bezeten door het idee om een daguerreotypie van God te maken. In de gelijknamige serie wordt zijn maniakale queeste indringend in beeld gebracht. Eerst fotografeert hij Macondo, het negentiende-eeuwse dorp dat hij heeft gesticht. De huizen, de straten, de bomen, de inwoners – niets ontsnapt aan zijn aandacht. Daarna trekt hij hoopvol gestemd de omliggende natuur in.

Maar telkens wanneer hij zijn afbeeldingen laat ontwikkelen, is God nergens te bekennen. ‘Het is zo vreemd’, zegt hij tegen Melquíades. Niet eerder is hij zo van streek geweest. Betekent dit dat God niet bestaat?

Langzaam kruipt de waanzin in hem. Zijn obsessieve drang tot uitvinden, tot begrijpen hoe de wereld werkt, het universum, het wordt te overweldigend. José Arcadio, de man met de ‘ongebreidelde verbeeldingskracht die altijd verder reikte dan de genialiteit van de natuur en zelfs verder dan wonderen en magie’, eindigt vastgebonden aan de kastanjeboom in zijn tuin, waar hij de rest van zijn leven doorbrengt.

Lijkt José Arcadio niet op Sam Altman, de oprichter van OpenAI? Ook hij doet een ultieme poging om dichter bij God te komen. Niet door zijn AI-modellen naar Hem te laten speuren in elke uithoek van het universum, maar door Hem na te bouwen, te creëren. Ook hij wordt op de been gehouden door een ongeremde fantasie en verbeeldingskracht. En vooruit, door een vleugje megalomanie. En ook hij schrijft technologie te veel kracht toe. Zijn verwachtingen zijn te hoog. Hij zal net als José Arcadio teleurgesteld worden. Het is wachten op eenzelfde soort ineenstorting.

Maar zover is het nog niet.

Altman en zijn consorten zijn geobsedeerd door het bereiken van Artificial General Intelligence (AGI), het denkbeeldige punt waarop AI slimmer zal worden dan de mens en in staat zal zijn zichzelf te ontwikkelen en te verbeteren, wat zou moeten leiden tot een soort superintelligentie, tot een God die alle problemen voor ons zal oplossen, ons misschien wel onsterfelijk zal maken, zal laten samensmelten met technologie, zodat ook wij superintelligent worden.

Dat is van meet af aan het doel geweest van OpenAI. Het is nooit gegaan over AI-tools die productiviteit verbeteren of kunst genereren. Zelfs de lancering van ChatGPT eind 2022 – volgens Altman ‘magic in the sky’ – stond volledig in dienst van AGI. Het moest het geloof bij investeerders zoals Microsoft aanwakkeren dat AGI geen hersenspinsel was, maar een reële mogelijkheid.

Medewerkers die te lang stilstonden bij het onverwachte en overweldigende succes van ChatGPT werden direct bij de les gehouden. Ze moesten gefocust blijven op de missie. Of zoals Ilya Sutskever, computerwetenschapper en medeoprichter van OpenAI, in een bevlogen speech tegen ze riep: ‘Feel the AGI! Feel the AGI!’

Het doet ergens denken aan de slogan op de eerste bladzijde van de Whole Earth Catalog van Stewart Brand, het ‘gereedschapstijdschrift’ dat een van de bepalendste documenten van de Amerikaanse tegencultuur en de daaruit voortvloeiende tech-sector werd, namelijk: ‘We are Gods and might as well get good at it.’

Was dat een hint naar zoiets als AGI? Want goddelijker zal het niet worden: de technologie moet het stichten van een ruimtekolonie mogelijk maken, het klimaat verbeteren, alle wetten van de natuurkunde en het universum doorgronden, onze geest uploaden naar de cloud. Altman spreekt van ‘een bijna grenzeloze intelligentie en verbluffende triomfen’; Dario Amodei, voorheen werkzaam bij OpenAI en inmiddels oprichter van concurrent Anthropic, van ‘transcendente schoonheid’.

Het is dan ook niet overdreven om te stellen dat het taalgebruik rond AI diepreligieus van aard is. Om woorden te geven aan iets wat ons voorstellingsvermogen te boven gaat, grijpen we blijkbaar terug op metafysisch lexicon. Het gaat over evangelisten, orakels, discipelen, hogepriesters en profeten, over transcendentie, eindtijdverhalen, de apocalyps, onsterfelijkheid, verlossing, het eeuwige leven, singulariteit, hemel en hel, de duivel en God.

Het ontwikkelen van AGI, waar nul wetenschappelijk bewijs voor is, zelfs geen aanwijzing, is uitgegroeid tot een religie. Veelzeggend is dat journalist Karen Hao haar boek Empire of AI opent met dit citaat van Altman: ‘The most successful founders do not set out to create companies. They are on a mission to create something closer to a religion, and at some point it turns out that forming a company is the easiest way to do so.’

In de documentaire Transcendent Man zien we transhumanist Ray Kurzweil, in wat inmiddels is verworden tot een iconische scene, op het strand in Californië staan, zijn handen in zijn zakken, kijkend naar de oceaan, naar de golven, naar de zon die ondergaat. We horen de interviewer vragen waar hij aan denkt. Kurzweil is even stil en zegt dan: ‘Aan de enorme hoeveelheid computerkracht die in de oceaan ligt opgeslagen. Al die watermoleculen die met elkaar interacteren, het is allemaal calculatie.’ Kurzweil lijkt het nauwelijks te kunnen bevatten. Hij kijkt naar de natuur, maar ziet techniek. Niet de oceaan, maar de data waaruit die zou bestaan brengt hem in een staat van vervoering. Hij zegt: ‘Dit is waar computerkracht om draait. Om het creëren van dit soort transcendente momenten.’

Volgens transhumanisten bestaat de hele wereld uit data. De enige manier waarop we als mensheid kunnen overleven, is door onze lichamen te laten samensmelten met techniek en te transformeren tot een nieuwe soort. Dat moment, waar de hele menselijke geschiedenis naartoe zou bouwen, noemt Kurzweil de singulariteit. Het is het moment waarop de mens goddelijk wordt.

Het transhumanisme komt verdacht veel overeen met het christendom, specifiek met de eindtijd, schrijft Meghan O’Gieblyn, zelf orthodox-christelijk opgevoed, in haar boek God, Human, Animal, Machine. Volgens haar vloeit het transhumanisme voort uit een lange traditie van christenen die door de eeuwen heen geloofden dat de wederopstanding geen bovennatuurlijk proces was, maar bereikt kon worden via wetenschap en technologie. Niet God, maar machines zouden ons een staat van ‘superbewustzijn’ geven: de doden zouden opstaan, de mens zou onsterfelijk worden, de aarde zou transformeren. Dat idee is overgenomen en seculier gemaakt door transhumanisten, schrijft O’Gieblyn. Maar de religieuze taal is gebleven.

Dat verklaart deels waarom ons praten en denken over AI en AGI zo doorspekt zijn met religieuze termen. Het is bekend dat het transhumanisme al jarenlang grote invloed uitoefent op Silicon Valley. Nu zijn we op het punt gekomen dat die ideeën naar de oppervlakte worden gebracht. De singulariteit en AGI verschillen namelijk nauwelijks van elkaar. Kurzweil en iemand als Sutskever, de medeoprichter van OpenAI die jarenlang leiding gaf aan de onderzoeksafdeling, zien ongeveer hetzelfde goddelijke droombeeld voor zich en baseren dat beiden op het idee dat de rekenkracht van AI-modellen elk jaar exponentieel toeneemt. Wie daar vol op inzet (‘scale, scale, scale’, heeft Sutskever jarenlang tegen zijn medewerkers geroepen), bereikt vanzelf superintelligentie, is de gedachte.

Dat betekent ook dat wanneer AGI bereikt zou worden, dat als vanzelf leidt tot de singulariteit, omdat AI zichzelf dan blijft verbeteren en er een ‘explosie van intelligentie’ plaatsvindt. Het zou de laatste uitvinding zijn die de mens zou hoeven doen. Vanaf dat punt neemt God het over.

José Arcadio sloot zichzelf soms wekenlang op in zijn werkkamer, waar hij werd opgeslokt door technologie, alchemie, astronomie, filosofie en de raadsels van het universum. Toen hij voor het eerst zag hoe Melquíades een foto ontwikkelde, werd hij overweldigd door de aanblik van het fototoestel, door de nieuwe wereld die er voor hem openging. Als dit apparaat tijd en ruimte kon onthullen, en alles daartussenin… dacht hij.

De tragiek van José Arcadio zit in het gegeven dat hij telkens méér zoekt in technologie dan zij hem kan geven. Dat is een universele ervaring: we hebben altijd geloofd in de onbegrensde, bovennatuurlijke mogelijkheden van onze apparaten. De komst van de telegraaf bracht velen ertoe te geloven in een onzichtbare wereld. Thomas Edison stortte zich op de gloeilamp en probeerde tegelijkertijd een machine te bouwen waarmee we met geesten zouden kunnen praten. Tegen beter weten in proberen we leven, of beter, magie te blazen in deze levenloze door de mens gemaakte objecten.

In zijn boek American Technological Sublime (1994) laat historicus David Nye zien hoe het sublieme, dus een overweldigende esthetische ervaring die vaak niet te bevatten of in woorden uit te drukken is, in de negentiende en twintigste eeuw niet langer enkel door natuurverschijnselen, kunst of religie werd veroorzaakt, maar in toenemende mate verbonden raakte met technologie. Gevoelens die loskwamen bij het aanschouwen van een sterrenhemel, de Grand Canyon of de Niagara Falls, zoals verwondering, ontzag, inspiratie of angst, te vergelijken met een religieuze ervaring, werden nu ook opgewekt door spoorwegen, bruggen, wolkenkrabbers, het Manhattanproject en computers.

Veelzeggend was Ayn Rands verslag – op dat moment een van de invloedrijkste denkers van Amerika – van Apollo 11 in 1969, waarin ze schreef: ‘Dit maakte geen deel uit van een normale ervaring (…) het gevoel was dat de onbelemmerde bewegingsstrook van de raket het enige was dat ertoe deed in het universum (…) wat we hadden gezien, was de geconcretiseerde abstractie van de grootshei

·groene.nl·
AGI, kunstmatige intelligentie die zelf denkt, komt ons redden – althans, zo denkt big tech
Eindhoven blokkeert ChatGPT na datalek
Eindhoven blokkeert ChatGPT na datalek
Steekproef liet zien dat verschillende bestanden met persoonsgegevens waren geüpload naar openbare AI-websites.
·binnenlandsbestuur.nl·
Eindhoven blokkeert ChatGPT na datalek
Gemeente Utrecht moet beter omgaan met algoritmes
Gemeente Utrecht moet beter omgaan met algoritmes
Medewerkers van de gemeente Utrecht gaan niet goed genoeg om met het gebruik van algoritmes. Dat concludeert de Utrechtse rekenkamer na onderzoek.
·rtvutrecht.nl·
Gemeente Utrecht moet beter omgaan met algoritmes
Het 'smerige mensenwerk' achter de race naar betere AI
Het 'smerige mensenwerk' achter de race naar betere AI
Om ChatGPT te 'trainen' moest Mophat uit Kenia talloze teksten lezen en beoordelen. Die gingen over schokkende onderwerpen als kannibalisme of seks tussen ouders en kinderen.
·nos.nl·
Het 'smerige mensenwerk' achter de race naar betere AI
AI-chatbots overtuigen razendsnel
AI-chatbots overtuigen razendsnel
AI-chatbots kunnen in minuten blijvend meningen sturen. En vaak blijvend. Dat doen ze beter dan politici.
·binnenlandsbestuur.nl·
AI-chatbots overtuigen razendsnel
The End of Mutual Assured Destruction? | Foreign Affairs
The End of Mutual Assured Destruction? | Foreign Affairs

The End of Mutual Assured Destruction? What AI Will Mean for Nuclear Deterrence Sam Winter-Levy and Nikita Lalwani August 7, 2025 A Russian intercontinental ballistic missile system in Moscow, May 2025 A Russian intercontinental ballistic missile system in Moscow, May 2025 Yulia Morozova / Reuters SAM WINTER-LEVY is a Fellow in Technology and International Affairs at the Carnegie Endowment for International Peace.

NIKITA LALWANI is a Nonresident Scholar at the Carnegie Endowment for International Peace. She served as Director for Technology and National Security at the National Security Council and as Senior Adviser to the Director of the CHIPS Program Office at the U.S. Department of Commerce during the Biden administration.

More by Sam Winter-Levy More by Nikita Lalwani Listen Share & Download Print Save The rapid development of artificial intelligence in recent years has led many analysts to suggest that it will upend international politics and the military balance of power. Some have gone so far as to claim, in the words of the technologists Dan Hendrycks, Eric Schmidt, and Alexandr Wang, that advanced AI systems could “establish one state’s complete dominance and control, leaving the fate of rivals subject to its will.”

AI is no doubt a transformative technology, one that will strengthen the economic, political, and military foundations of state power. But the winner of the AI race will not necessarily enjoy unchallenged dominance over its major competitors. The power of nuclear weapons, the most significant invention of the last century, remains a major impediment to the bulldozing change brought by AI. So long as systems of nuclear deterrence remain in place, the economic and military advantages produced by AI will not allow states to fully impose their political preferences on one another. Consider that the U.S. economy is almost 15 times larger than that of Russia, and almost 1,000 times larger than that of North Korea, yet Washington struggles to get Moscow or Pyongyang to do what it wants, in large part because of their nuclear arsenals.

Some analysts have suggested that AI advances could challenge this dynamic. To undermine nuclear deterrence, AI would need to knock down its central pillar: a state’s capacity to respond to a nuclear attack with a devastating nuclear strike of its own, what is known as second-strike capability. AI technology could plausibly make it easier for a state to destroy a rival’s entire nuclear arsenal in one “splendid first strike” by pinpointing the locations of nuclear submarines and mobile launchers. It could also prevent a rival from launching a retaliatory strike by disabling command-and-control networks. And it could strengthen missile defenses such that a rival could no longer credibly threaten retaliation. If AI could in this way help a state escape the prospect of mutual assured destruction, the technology would make that state unrivaled in its capacity to threaten and coerce adversaries—an outcome in line with increasingly popular visions of AI-enabled dominance.

But undermining the nuclear balance of power will not be easy. Emerging technologies still face very real constraints in the nuclear domain. Even the most sophisticated AI-powered targeting and sensor systems may struggle to locate a mobile nuclear launcher hidden under a bridge, isolate the signatures of a nuclear-armed submarine from the background noise of the ocean, and orchestrate the simultaneous destruction of hundreds of targets on land, air, and sea—with zero room for error. And competitors will respond to their adversaries’ use of new technology with moves of their own to defend their systems, as they have at every turn since the dawn of the atomic age.

Subscribe to Foreign Affairs This Week Our editors’ top picks, delivered free to your inbox every Friday.

Enter your email here. Sign Up

  • Note that when you provide your email address, the Foreign Affairs Privacy Policy and Terms of Use will apply to your newsletter subscription.

Yet even if it does not challenge nuclear deterrence, AI may encourage mistrust and dangerous actions among nuclear-armed states. Many of the steps that governments could take to protect and toughen their second-strike capabilities risk alarming rivals, potentially spurring expensive and dangerous arms races. It also remains possible that AI systems could cross a crucial threshold and exhibit extremely rapid improvements in capabilities. Were that to happen, their advantages to the country that possesses them could become more pronounced and difficult for rivals to contend with. Policymakers should monitor for such a scenario and facilitate regular communication between AI and nuclear experts. At the same time, they should take steps to reduce the probability of accidents and escalation, including assessing nuclear systems for AI-related vulnerabilities and maintaining channels of communication between nuclear powers. Such steps will help ensure that nuclear stability—and not just nuclear deterrence—endures in the age of AI.

FIRST STRIKE Nuclear deterrence depends, most fundamentally, on states’ possessing the ability to retaliate after absorbing a nuclear attack: so long as two nuclear powers credibly maintain a second-strike capability that can inflict unacceptable damage on their adversary, a first strike is suicidal. This understanding has for decades sustained a relatively stable equilibrium. But second-strike capabilities are not invulnerable. States can eliminate delivery platforms, such as road-mobile missile launchers and nuclear submarines, provided that they can find them. The difficulty of finding and disabling these platforms is one of the central obstacles to launching a splendid first strike. The sheer size of China, Russia, the United States, the Atlantic Ocean, and the Pacific Ocean—the most important domains for nuclear competition today—makes such a strike hard to accomplish.

The emergence of powerful AI systems, however, could solve that problem. Capable of processing and analyzing vast amounts of data, a military equipped with such technologies could better target the nuclear assets of its rivals. Consider ground-launched mobile missiles, one of the platforms that underpin Russian and Chinese second-strike capabilities. These missiles, which are carried on vehicles that can hide under camouflage netting, bridges, or tunnels and drive from one concealed location to another, are probably the most difficult element of Russian and Chinese nuclear forces to eliminate. (Silo-based ballistic missiles, by contrast, are much more vulnerable to attack.) The improved speed and scale of AI-empowered intelligence processing may make it easier to conduct operations against these vehicles. AI systems can scour and integrate huge amounts of data from satellites, reconnaissance aircraft, signals intelligence intercepts, stealth drones, ground-based sensors, and human intelligence to more effectively find and track mobile nuclear forces.

When it comes to the sea, the potential convergence of AI with sensing technologies might make the oceans “transparent,” allowing governments to track ballistic missile submarines in real time. That is a particular concern for the United States, which keeps a much higher percentage of its warheads on submarines than Russia or China does. AI could make it easier to track submarines by automating pattern recognition from multiple types of sensors across massive ocean areas and over long durations. It could also help a state hack into the systems its adversaries use to track their own weapons.

Yet even with the assistance of AI, states will not be absolutely sure that a splendid first strike can knock out a rival’s capacity to retaliate. On land, for instance, China and Russia could respond to improvements in U.S. tracking systems with their own countermeasures. They could invest in antisatellite weapons and jamming capabilities. They could adopt old-fashioned low-tech solutions, such as covering roads with netting or constructing decoys, to increase the number of targets an attacker would need to strike. They could order their launchers to emit fewer signals, making it harder for the United States to track them. They could modify the launchers to move faster, widening the target area U.S. strikes would have to hit. They could even use their own AI systems to inject false information into channels monitored by the U.S. intelligence community.

In the maritime domain, too, AI is unlikely to make the sea fully transparent. Any system will struggle to continuously identify, track, and monitor multiple targets over long ranges and amid ocean background noise, especially as submarines get quieter and oceans noisier. Submarines remain extraordinarily difficult to detect when submerged at depth and operating at low speeds, due to how sound moves underwater, shifting ocean conditions, and the inherent noisiness of the marine environment. In the seas, false alarms are frequent; reliable contact is rare. And at sea, as on land, major powers can tip the scales in their favor through various countermeasures: they can jam signals, manipulate sensor data, use undersea sensors and uncrewed vehicles to detect adversary assets, and operate their own submarines in protected bastions close to their home shores. Detection will thus remain a matter of probability, even with the introduction of AI—and states are unlikely to want to risk a splendid first strike on anything less than a safe bet.

COMMAND AND CONTROL Beyond making it easier to find and destroy an adversary’s nuclear weapons, AI could plausibly threaten the nuclear command-and-control systems that would be needed to launch a retaliatory strike. Command-and-control systems are responsible for detecting attacks, reporting them to the relevant authority, and transmitting retaliation orders to nuclear forces. These systems must be able to identify a wide range of missiles; assess d

·foreignaffairs.com·
The End of Mutual Assured Destruction? | Foreign Affairs
AI werkt zó, dat het ons dommer maakt
AI werkt zó, dat het ons dommer maakt
Het geldt misschien niet voor Wouter Dijk (Opinie, 9 juli), die beschreef hoe hij zijn behoefte aan filosoferen verwezenlijkte dankzij AI, maar toch wil ik stellen: AI maakt dommer. Met een klein vrijwilligersteam maak ik een nieuwsbrief over maritiem erfgoed...
·digitalekrant.trouw.nl·
AI werkt zó, dat het ons dommer maakt
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders

Direct naar artikelinhoud Website logo

Voorpagina Editie Best gelezen Rubrieken

Reconstructie Amsterdams algoritme Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders Bron Brechtje Rood Al vaker ging de overheid de mist in met algoritmes bedoeld om uitkeringsfraude te bestrijden. De gemeente Amsterdam wilde het allemaal anders doen, maar kwam erachter: een ethisch algoritme is een illusie.

Dit artikel is geschreven door Jeroen van Raalte redacteur lokale democratie

Gepubliceerd op 6 juni 2025, 22:00

Bewaren Delen Rutger Groot Wassink neemt plaats op zijn zetel in de Amsterdamse raadzaal. Hij zet zijn leesbril op, werpt een blik op de tablet voor zijn neus en richt zich dan tot de zaal met een korte mededeling. “Ik heb besloten de pilot stop te zetten.”

Wilt u elke dag de Middag nieuwsbrief van Trouw ontvangen via e-mail? E-mail Bijna terloops bezegelt de wethouder het lot van een groot experiment van Amsterdam met kunstmatige intelligentie. Jarenlang heeft de gemeente eraan gesleuteld. Maar nu, op deze woensdagmiddag in november 2023, draagt Groot Wassink het ten overstaan van een handvol gemeenteraadsleden ten grave.

Het gesneuvelde project heet Slimme Check, een zelflerend algoritme dat moest helpen bij de beoordeling van bijstandsaanvragen. Het computersysteem is ontwikkeld door de gemeente Amsterdam zelf. Het experiment is gedurfd, ambitieus, maar ook gevoelig. Kunstmatige intelligentie loslaten op de sociale zekerheid is een recept voor controverse.

Amsterdam trok alles uit de kast om een algoritme te bouwen dat de beoordeling van bijstandsaanvragen niet alleen efficiënter, maar ook rechtvaardiger maakt. De gemeente speelt open kaart en nodigt het journalistieke onderzoekscollectief Lighthouse Reports, dat eerder onthullingen deed over kwestieuze bijstandsalgoritmes, uit om over haar schouder mee te kijken.

Toch trekt wethouder Groot Wassink deze novemberdag de stekker uit Slimme Check. Waarom is het project mislukt? En wat leert dit over de valkuilen van kunstmatige intelligentie in de sociale zekerheid? In samenwerking met Lighthouse Reports en MIT Technology Review nam Trouw een kijkje onder de motorkap van het Amsterdamse algoritme.

Bron Brechtje Rood I. Een nobel algoritme Het idee voor een algoritme borrelt zo’n zeven jaar geleden op uit de ambtenarij. Bij de afdeling Werk, participatie en inkomen (WPI) bestaat de wens om de handhaving van de bijstand deels te automatiseren, vertelt strategisch adviseur Harry Bodaar in een kamer op het stadhuis.

De gemeente heeft namelijk een zware dobber aan de bijstand. Jaarlijks ontvangt de gemeente zo’n 7500 aanvragen voor een uitkering. Ambtenaren beoordelen deze handmatig. Zijn er op het eerste oog aanwijzingen voor onrechtmatigheid of zelfs fraude, dan belandt een aanvraag op het bureau van een handhaver. Die kan de indiener ondervragen en huisbezoeken afleggen. Blijkt de aanvraag in orde, dan wordt deze verwerkt. Zo niet, dan volgt een afwijzing.

Erg efficiënt gaat dit allemaal niet, zien ze bij WPI. Risico-inschatting is een complex, tijdrovend karwei. Het aantal aanvragen dat voor nadere controle naar de handhaving wordt doorgestuurd, daalt al jaren: van 15 procent in 2015 naar nog geen 4 procent in 2021. “Dat percentage is te laag, zeg ik uit ervaring”, aldus Bodaar, die al flink wat jaartjes meedraait in de handhaving.

Bovendien leveren die onderzoeken te weinig hits op. Het merendeel (60 procent) van de aanvragen die voor nader onderzoek worden geselecteerd, blijkt uiteindelijk gewoon rechtmatig. “Al die mensen hebben we dus ten onrechte lastiggevallen.”

AI maakt eerste schifting Kan kunstmatige intelligentie (AI) geen uitkomst bieden? Een systeem dat snel én beter een eerste schifting maakt in binnenkomende bijstandsaanvragen?

Amsterdam besluit een eigen computermodel te ontwikkelen. Het gaat om een zogeheten machinelearning-algoritme, dat met een dataset wordt getraind om onrechtmatige aanvragen te herkennen. De gedachte is dat AI patronen kan ontwaren die mensen ontgaan.

Aan de hand van vijftien features, kenmerken zoals inkomen en woonsituatie, bepaalt het model of een bijstandsaanvraag ‘onderzoekswaardig’ is. Zo ja, dan neemt een handhaver het dossier onder de loep.

Bron Bart Friso Amsterdam is niet de eerste gemeente die voor de verleiding van AI valt. De technologie oogt veelbelovend, maar ongelukken liggen op de loer. In Nederland kwam het al tot meerdere schandalen.

Zo verbood de rechter in 2020 het gebruik van SyRI, een overheidssysteem bedoeld om uitkeringsfraude op te sporen. Het jaar daarop staakte de gemeente Nissewaard de samenwerking met een databedrijf dat bijstandsaanvragen analyseerde op frauderisico’s – het systeem bleek onbetrouwbaar. En Rotterdam stopte in 2023 met een bijstandsalgoritme nadat Lighthouse Reports onthulde dat het alleenstaande moeders discrimineerde. Zelflerende algoritmes speelden ook een rol in de toeslagenaffaire bij de Belastingdienst.

Geen klopjacht, geen geheimen Op het Amsterdamse stadhuis zijn ze zich bewust van deze miskleunen. De progressieve hoofdstad wil het allemaal anders doen. Geen ontspoorde klopjacht op vermeende fraudeurs. Geen geheimzinnigheid. Geen vooringenomen algoritmes die kwetsbare groepen benadelen. Ditmaal moet kunstmatige intelligentie de burger dienen.

Het doel van Slimme Check is dan ook niet zoveel mogelijk fraudeurs pakken. De gemeente heeft een nobelere insteek: schulden voorkomen. “Als iemand te veel bijstand heeft ontvangen, moeten wij van de wet dat bedrag tot op de laatste cent terugvorderen”, schetst Bodaar.

Dat komt veel voor. De participatiewet is zo ingewikkeld geworden, dat een foutje snel is gemaakt. Ongeveer tienduizend Amsterdammers moeten momenteel (een deel van) hun ontvangen uitkering terugbetalen aan de gemeente. Een algoritme kan helpen het aantal uitkeringen dat onterecht wordt verstrekt te verminderen, redeneert de gemeente.

“We willen graag minder mensen met een bijstandsschuld”, zegt Bodaar. “Dus kiezen we voor preventie.”

II. Het gevaar van proxy’s De Amsterdamse programmeurs gaan volgens het boekje te werk. Naar gevoelige kenmerken als etniciteit, nationaliteit en geslacht kijkt het algoritme niet. Door het model te beperken tot vijftien features – ter vergelijking: het verboden overheidssysteem SyRI telde bijna negentig risico-indicatoren – willen ze de kans op onbedoelde discriminatie door het algoritme uitsluiten.

Want via omwegen, zogeheten proxy’s, kunnen vooroordelen alsnog een computermodel insluipen. Een bekend voorbeeld hiervan zijn postcodes. Op het oog is dat een objectieve maatstaf, maar wanneer in een wijk veel mensen met een migratieachtergrond wonen, kan dat ertoe leiden dat het algoritme alsnog onevenredig vaak een etnische groep als risico bestempelt.

Amsterdam wil daarnaast voorkomen dat het systeem een zwarte doos wordt. Slimme Check moet een explainable (uitlegbaar) algoritme zijn: een leek moet kunnen begrijpen hoe het model tot zijn oordeel komt. “Een beetje een marketingterm”, stelt Jurriaan Parie. Hij is directeur van Algorithm Audit, een Haagse stichting die maatschappelijke toepassingen van algoritmes onderzoekt. “Het algoritme is ietsje begrijpelijker. Maar het blijft te complex om aan gewone burgers uit te leggen.”

Eigenlijk, zegt zijn collega Ylja Remmits, moet je in zo’n model alleen variabelen stoppen die een logisch verband hebben met wat je probeert te voorspellen. “Neem de kleur van iemands auto. Die zegt natuurlijk niets over frauderisico’s, maar zou in een computermodel wel een statistische correlatie kunnen vertonen met fraude.”

Om zulke missers voor te zijn, wint het Amsterdamse team in 2022 advies in bij een keur aan adviesgroepen. Zo laten ze een mensenrechtenassessment, een privacytoets en een AI-assessment uitvoeren. Ook de Commissie Persoonsgegevens en adviesbureau Deloitte buigen zich over het project. Na wat mitsen en maren geven ze allemaal hun zegen.

Behalve één.

III. Wantrouwen en kritiek In een Amsterdams café parkeert Anke van der Vliet (76) haar rollator, vist haar leesbril uit een etui en zet zich aan een tafeltje. Al decennialang komt ze op voor de belangen van mensen in de bijstand. Dit zijn er zo’n veertigduizend in Amsterdam. Tot voor kort was ze lid van de Participatieraad, die namens Amsterdamse uitkeringsgerechtigden de gemeente gevraagd en ongevraagd advies geeft.

Ook over Slimme Check. “Wij wantrouwden het vanaf het begin”, vertelt Van der Vliet. “Iedereen was ertegen.” Dat de gemeente een heel systeem optuigt om een handvol fraudeurs te pakken, is disproportioneel, zo schrijft de Participatieraad in het voorjaar van 2022 in een negatief advies. Daarin uit de raad ook zorgen over privacy: ‘De raad is van mening dat een dergelijk experiment de fundamentele grondrechten van burgers aantast en dient te worden gestaakt.’

Intern volgen meer kritische geluiden. Begin 2023, als het computermodel zo goed als gereed is voor een test in de praktijk, publiceert de gemeente het plan voor Slimme Check in het algoritmeregister. Als eerste stad in Nederland hanteert Amsterdam een openbaar overzicht van alle algoritmes die de burger kunnen raken.

Bron Brechtje Rood ‘Een slecht idee’ Als Hans de Zwart over het project leest, valt hij bijna van zijn stoel. “Ik dacht meteen: dit is een slecht idee.” De Zwart geldt als een luis in de pels. De voormalig directeur van Bits of Freedom is als techniekfilosoof verbonden aan de Hogeschool van Amsterdam, bij een afdeling die op verzoek van de gemeente kritisch meedenkt over technologische ontwikkelingen.

Quote van techniekfilosoof Hans de Zwart . In de computerwereld klinkt steeds meer de kritiek dat algoritmes zich niet lenen voor fraudebestrijding techniekfilosoof Hans de Zwart Al gaat de gemeente nog zo zorgvuldig te werk, volgens hem blijft het risico op geautomatiseerde discriminatie levensgroot bij zo’n computermodel. “Je moet heel terughoudend zijn met het gebruik van algoritmes voor dit soort doeleinden

·trouw.nl·
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders
Opinie: Graag minder AI op school, want we willen zelf leren nadenken
Opinie: Graag minder AI op school, want we willen zelf leren nadenken

Opinie: Graag minder AI op school, want we willen zelf leren nadenken

In lessen zonder laptops en telefoons stellen klasgenoten meer vragen en leren ze meer, merkt Donna Janssen. Daarom stelt ze: maak leerlingen niet afhankelijk van chatbots.

Dit artikel is geschreven door Donna Janssen Gepubliceerd op 3 oktober 2025, 15:01 Dit is een ingezonden opiniestuk. Het standpunt in dit artikel is niet per definitie ook het standpunt van Trouw.

Kunstmatige intelligentie lijkt niet te stoppen, ook niet in het onderwijs. En zeker, van het beantwoorden van simpele vragen tot het oplossen van een wiskundige vergelijking tot een volledige samenvatting van een boek dat je leest voor Nederlands: AI is een goed hulpmiddel. Maar nu dreigt het gevaar dat we de ontwikkeling van het jonge puberbrein opofferen aan gemak. Ik maak mij hierom grote zorgen. Ik zie namelijk zelf op school hoeveel AI wordt gebruikt in de lessen. Sommige leerlingen gebruiken het nauwelijks, sommige gebruiken het voor elke opdracht die ze voor school krijgen. Daarom is het tijd voor maatregelen.

Op school zie ik hoe snel AI zijn weg vindt in het klaslokaal. Leerlingen gebruiken het steeds meer, voor het bedenken van creatieve verhalen of om een opiniestuk zoals dit te schrijven. En precies daar begint het te wringen. Ik erger mij kapot aan het feit dat er leerlingen zijn die een 9 halen voor een opdracht die ze aan ChatGPT hebben uitbesteed, terwijl ik die opdracht zélf heb gemaakt en een 7 krijg.

Volgens het kennisplatform DigiWijzer heeft het intensieve gebruik van AI-gevolgen voor de ontwikkeling van jongeren. Het leidt tot minder creativiteit en minder flexibiliteit, en juist die vaardigheden heb je in het leven hard nodig. Door steeds vaker op AI te vertrouwen, laten we onze hersenen letterlijk minder hard werken. ChatGPT beantwoordt zorgvuldig al je vragen. Het is dus heel verleidelijk om denkwerk aan ChatGPT uit te besteden. En dat zie ik terug in het onderwijs. Sommige leerlingen weten niet eens hoe ze moeten beginnen met een opdracht zonder hulp van AI.

Ongelijkheid in het klaslokaal Daarnaast zorgt het toenemende gebruik van AI voor ongelijkheid in het klaslokaal. Niet iedereen weet hoe je AI op een slimme manier gebruikt. En ook de beoordeling is oneerlijk: docenten hebben vaak niet door of iets door een leerling zelf is geschreven of door AI. Het verschil tussen inzet en imitatie wordt steeds moeilijker te herkennen. Dat brengt mij bij de belangrijkste vraag: hoe kunnen we het gebruik van AI terugdringen? Want hoewel we AI niet kunnen verbieden, kunnen we wél bedenken hoe we het gebruik ervan in goede banen kunnen leiden.

Het gevaar dreigt dat we de ontwikkeling van het jonge puberbrein opofferen aan gemak

Een maatregel die je kunt nemen is het geven van meer mondelinge of klassikale lessen. Wanneer je opdrachten klassikaal of mondeling bespreekt, wordt het veel lastiger om AI te gebruiken. Leerlingen moeten zelf nadenken, zelf verwoorden wat ze bedoelen, en kunnen niet zo gemakkelijk AI gebruiken. Bovendien zorgt deze maatregel voor meer interactie en betere uitleg. Leerlingen zullen vaker en meer vragen stellen, omdat ze beter letten op de lesstof.

Zonder laptops wordt er beter opgelet Dit merk ik zelf ook in lessen waar geen laptops te bekennen zijn. Leerlingen letten vele malen beter op, begrijpen de lesstof beter en stellen meer vragen. Als we geen laptops meer gebruiken, hebben leerlingen geen toegang meer tot ChatGPT. Zeker niet op scholen waar ook een telefoonverbod geldt. Daardoor letten leerlingen beter op de lesstof en gaan ze meer zelf nadenken.

Sommige leerlingen weten zonder AI niet eens hoe ze moeten beginnen met een opdracht

AI verdwijnt niet, en dat hoeft ook niet. Maar het risico bestaat dat leerlingen te afhankelijk worden van AI-gebruik in de lessen. Het kan een krachtig hulpmiddel zijn, mits we er verstandig mee omgaan. Als we dat niet doen, dreigen we iets waardevols kwijt te raken: het zelf nadenken, onze creativiteit en het leren maken van fouten. Daarom luidt mijn oproep: laat gemak niet belangrijker worden dan ontwikkeling.

·trouw.nl·
Opinie: Graag minder AI op school, want we willen zelf leren nadenken
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in oorlogsvoering. Denk aan drones, missies plannen met hulp van AI, of simulaties die onderhoud van militair materieel voorspellen. Tegelijkertijd brengt AI grote risico’s met zich mee op het gebied van veiligheid, verantwoordelijkheid en internationaal recht. Nederland werkt samen met Zuid-Korea om het verantwoord gebruik van AI in het militaire domein op de internationale agenda te zetten. Ook tijdens de Algemene Vergadering van de Verenigde Naties (AVVN).
·rijksoverheid.nl·
AI in het militaire domein: Nederland maakt zich sterk voor internationale dialoog
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion

"We're not done yet," he boomed, threatening like some Mafia boss the dying Gaza Strip at the United Nations General Assembly, which was as empty as a theater that's been screening the same movie for too many weeks. "We're not done yet," he also threatened Israelis who want him out of their lives already.

Prime Minister Benjamin Netanyahu's speech Friday highlighted again the fact that we are not done yet with him and that he is not done yet with the Gaza Strip and with us.

Despite the bizarre lapel pin with a QR code linking to images and videos of the October 7 massacre, the childish gimmicks, the pop quiz, the map and the loudspeakers in Gaza, he is still a first-rate demagogue: a mass murderer, the No. 1 most-wanted – the very fact that he is allowed on the dais at the UN is a scandal – posing as Mother Teresa.

Have American Jews pushed Israel toward extremism or moderation? Anyone listening to him who knew nothing about what his country is doing in Gaza and the West Bank might be tempted to think that the Israel Defense Forces is the Salvation Army, that Israel was competing with UNICEF in aiding needy children, and that he himself is a lifelong follower of Mahatma Gandhi's teachings. Yes, Netanyahu still has it.

Get ahead of the conversation with Haaretz’s opinion editor’s top commentaries Email * post@stylo.nl Please enter a valid email address Sign Up The beginning boded well. The mass exodus from the hall should have shamed every Israeli, finally causing them to ask: Perhaps Israel did something wrong after all? It's safe to assume that most Israelis would respond, "It's the antisemitism, stupid."

A rogue Israeli force operates in Gaza, endangering soldiers and Palestinian civilians Abandon the hostages and wipe out Gaza? Okay. Israel ousted from Eurovision? The horror Recognizing Palestine: Who's doing it and what it actually means Then came some authenticity: The prime minister proudly related how Israel hammered, destroyed, crushed, crippled and devastated the entire surrounding region. Dozens of synonyms for annihilation. He used his customary black marker to draw check marks on last year's map, covering the entire zone of destruction and perhaps ones to come as well. What an honor. Only Gaza was missing. And the West Bank. Maybe he forgot them.

  • Advertisement -

A group of sycophants – particularly small this year, without all the wealthy Jews of previous years – applauded; the chief of staff of the Prime Minister's Office, Tzachi Braverman, cast severe looks all around, making sure that no one refrained.

Then came the demagoguery, the propaganda and the unbearable lies, even by his standards. "You saw the picture of Evyatar David. Emaciated, forced to dig his own grave," he said. Did you, prime minister, see the picture of Marwan Barghouti in an Israeli prison?

Open gallery view Smoke rises following an Israeli military strike in Gaza City, as seen from the central Gaza Strip, Friday.Credit: Abdel Kareem Hana/AP Did you see the human skeleton, this man who could have brought peace? You've turned good into evil … and evil into good, he preached in Biblical terms to European countries that have recognized a Palestinian state.

  • Advertisement -

By good you meant Israel, Netanyahu? How did your hand not shake when you wrote these words? How did your voice not tremble when you said them? Is it good to kill 1,000 babies under the age of 1 and 20,000 children overall? To create 40,000 new orphans? To systematically obliterate Gaza, leaving not a single stone standing?

If that is your good, then what is evil? Is it humane to speak of allowing aid equal to 3,000 calories a day for every resident into the Strip? Is mentioning a beautiful young couple from the Israeli embassy in Washington that was murdered nearby legitimate for the person who is responsible for killing tens of thousands of beautiful young couples in Gaza – killing that he isn't done with, by his own admission?

Is it fair to claim (without stating the source) that nearly 90 percent of Palestinians supported the October 7 attack, without saying how many Jewish Israelis support the genocide, some in joy and some in silence? The only true figure he quoted was that over 90 percent of Israeli lawmakers voted against the imposition of a Palestinian state. How true and how shameful.

  • Advertisement -

The pinnacle of this mendacious demagoguery came in the defense against claims of genocide. Did the Nazis ask the Jews kindly to leave, he asked, comparing Israel to the Nazis. Well, Mr. Netanyahu, the Nazis expelled Jews before the extermination began.

Between 1939 and 1941 they expelled and deported Jews from Germany, Czechoslovakia and Austria to occupied Poland. Their Madagascar Plan recalls your and Donald Trump's Riviera plan. The Armenian holocaust also began with mass expulsions.

We're not done yet, said my prime minister, the prime minister of everyone.

"We're not done yet," he boomed, threatening like some Mafia boss the dying Gaza Strip at the United Nations General Assembly, which was as empty as a theater that's been screening the same movie for too many weeks. "We're not done yet," he also threatened Israelis who want him out of their lives already. Prime Minister Benjamin Netanyahu's speech Friday highlighted again the fact that we are not done yet with him and that he is not done yet with the Gaza Strip and with us.Despite the bizarre lapel pin with a QR code linking to images and videos of the October 7 massacre, the childish gimmicks, the pop quiz, the map and the loudspeakers in Gaza, he is still a first-rate demagogue: a mass murderer, the No. 1 most-wanted – the very fact that he is allowed on the dais at the UN is a scandal – posing as Mother Teresa. Have American Jews pushed Israel toward extremism or moderation? Subscribe0:00-- : --15Skip 15 seconds backwards Play audio15Skip 15 seconds ahead1XChange playback rate from 1 to 1.25 Mute audioAnyone listening to him who knew nothing about what his country is doing in Gaza and the West Bank might be tempted to think that the Israel Defense Forces is the Salvation Army, that Israel was competing with UNICEF in aiding needy children, and that he himself is a lifelong follower of Mahatma Gandhi's teachings. Yes, Netanyahu still has it. Get ahead of the conversation with Haaretz’s opinion editor’s top commentariesEmail *Please enter a valid email addressSign Up The beginning boded well. The mass exodus from the hall should have shamed every Israeli, finally causing them to ask: Perhaps Israel did something wrong after all? It's safe to assume that most Israelis would respond, "It's the antisemitism, stupid." A rogue Israeli force operates in Gaza, endangering soldiers and Palestinian civiliansAbandon the hostages and wipe out Gaza? Okay. Israel ousted from Eurovision? The horrorRecognizing Palestine: Who's doing it and what it actually meansThen came some authenticity: The prime minister proudly related how Israel hammered, destroyed, crushed, crippled and devastated the entire surrounding region. Dozens of synonyms for annihilation. He used his customary black marker to draw check marks on last year's map, covering the entire zone of destruction and perhaps ones to come as well. What an honor. Only Gaza was missing. And the West Bank. Maybe he forgot them.- Advertisement - 00:00/01:01TEL AVIV - YAFO 2024Truvid מעבר לכתבה.trv-wrapper.trv-vertical, .trv-vertical .trvdfloater #slider, .trv-vertical .trvdfloater {border-radius: 12px !important;}#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .media-video, .swipe-video video ,#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .trv-media-controls, #br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .video-overlay, #br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .info-overlay { -webkit-touch-callout: none; -webkit-user-select: none; -khtml-user-select: none; -moz-user-select: none; -ms-user-select: none; -o-user-select: none; user-select: none; }#br_video_player_1ff0f7e61f599536d132e045798c6a1a7ab76a4d .sprite-background { background: transparent url("data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAABNoAAAAoCAYAAAAonpdLAAAAGXRFWHRTb2Z0d2FyZQBBZG9iZSBJbWFnZVJlYWR5ccllPAAAA25pVFh0WE1MOmNvbS5hZG9iZS54bXAAAAAAADw/eHBhY2tldCBiZWdpbj0i77u/IiBpZD0iVzVNME1wQ2VoaUh6cmVTek5UY3prYzlkIj8+IDx4OnhtcG1ldGEgeG1sbnM6eD0iYWRvYmU6bnM6bWV0YS8iIHg6eG1wdGs9IkFkb2JlIFhNUCBDb3JlIDUuNi1jMTQyIDc5LjE2MDkyNCwgMjAxNy8wNy8xMy0wMTowNjozOSAgICAgICAgIj4gPHJkZjpSREYgeG1sbnM6cmRmPSJodHRwOi8vd3d3LnczLm9yZy8xOTk5LzAyLzIyLXJkZi1zeW50YXgtbnMjIj4gPHJkZjpEZXNjcmlwdGlvbiByZGY6YWJvdXQ9IiIgeG1sbnM6eG1wTU09Imh0dHA6Ly9ucy5hZG9iZS5jb20veGFwLzEuMC9tbS8iIHhtbG5zOnN0UmVmPSJodHRwOi8vbnMuYWRvYmUuY29tL3hhcC8xLjAvc1R5cGUvUmVzb3VyY2VSZWYjIiB4bWxuczp4bXA9Imh0dHA6Ly9ucy5hZG9iZS5jb20veGFwLzEuMC8iIHhtcE1NOk9yaWdpbmFsRG9jdW1lbnRJRD0ieG1wLmRpZDphYzE1ODUxMS01M2M5LWQzNDYtOGZlNC1hZTI1ZmI5NTA4YzgiIHhtcE1NOkRvY3VtZW50SUQ9InhtcC5kaWQ6MEQ5RDQ5RDcwQ0UyMTFFOThFMTVFQThERTQzOThERDkiIHhtcE1NOkluc3RhbmNlSUQ9InhtcC5paWQ6MEQ5RDQ5RDYwQ0UyMTFFOThFMTVFQThERTQzOThERDkiIHhtcDpDcmVhdG9yVG9vbD0iQWRvYmUgUGhvdG9zaG9wIENDIDIwMTUgKFdpbmRvd3MpIj4gPHhtcE1NOkRlcml2ZWRGcm9tIHN0UmVmOmluc3RhbmNlSUQ9InhtcC5paWQ6MUQ3QUQ4Nzk3Q0I1MTFFNUIzMTRCMDIxQjZBMkU5NjUiIHN0UmVmOmRvY3VtZW50SUQ9InhtcC5kaWQ6MUQ3QUQ4N0E3Q0I1MTFFNUIzMTRCMDIxQjZBMkU5NjUiLz4gPC9yZGY6RGVzY3JpcHRpb24+IDwvcmRmOlJERj4gPC94OnhtcG1ldGE+IDw/eHBhY2tldCBlbmQ9InIiPz4FuWpAAAAxdUlEQVR42uxdB3wU1fY+m4QakF4EURAVYwMCiIgIiGIUFewoigg+LOhflKeiFCn6DD556rM8VEQEaVIFEVBBwK6wUoTQRERARCDSAoGU/3wzZ5LJsrM7bUuS8/1+55fN7pR7z87ee+53yvXl5+eTQCAQCAQCgUAgEAgEAoFAIHCHBFGBQCAQCAQCgUAgEAgEAoFA4B5CtAkEAoFAIBAIBAKBQCAQCAQeQIg2gUAgEAgEAoFAIBAIBAKBwAMI0SYQCAQCgUAgEAgEAoFAIBB4gCRRgUAgEAhKEnw+X8HLgL9AfsBfT4ENhgz397x
·haaretz.com·
Netanyahu, if killing 20,000 children in Gaza is good – then what is evil? | Opinion
Gemeenten testen hulp van AI
Gemeenten testen hulp van AI
Welk werk zou AI zoal kunnen overnemen van ambtenaren? Amsterdam en Beverwijk gingen in een pilot met die vraag aan de slag. De ene gemeente bij de afhandeling van burgerbezwaren, de andere bij de omgevingsvergunningen. ‘Als je het vergunningsproces automatiseert, speel je medewerkers vrij.’
·binnenlandsbestuur.nl·
Gemeenten testen hulp van AI
De AI-revolutie gaat ten onder aan bureaubagger
De AI-revolutie gaat ten onder aan bureaubagger
Maakt kunstmatige intelligentie de dienstensector productiever? Mathijs Bouman was ooit optimistisch. Inmiddels een stuk minder.
·fd.nl·
De AI-revolutie gaat ten onder aan bureaubagger
Energievraag van AI
Energievraag van AI
De snelle groei van datacentra voor kunstmatige intelligentie (AI) zet het energienet onder druk en verhoogt de CO2-uitstoot.
·esb.nu·
Energievraag van AI
Hallo, spreek ik met een AI?
Hallo, spreek ik met een AI?
Overheidscommunicatie die is gemaakt met behulp van generatieve AI moet als zodanig te herkennen zijn.
·binnenlandsbestuur.nl·
Hallo, spreek ik met een AI?
Hoe gebruik je AI zo duurzaam mogelijk?
Hoe gebruik je AI zo duurzaam mogelijk?
Een vraag aan ChatGPT stellen kost evenveel energie als 14 minuten een lamp laten branden. Het genereren van een afbeelding staat gelijk aan het opladen van een mobieltje. Klachten genoeg over energieslurpende AI. Maar kun je er iets aan doen?
·trouw.nl·
Hoe gebruik je AI zo duurzaam mogelijk?