C-Archief 2021-2025

2733 bookmarks
Newest
Kritiek op Woo-voorrangsregels in Utrecht
Kritiek op Woo-voorrangsregels in Utrecht
De gemeente Utrecht werkt sinds eind vorig jaar met een puntensysteem voor het afhandelen van Woo-verzoeken, maar dat systeem is volgens Spoon, het expertisecentrum voor Woo-verzoekers, ‘zeer discutabel’ en ‘in strijd met de wet’. Zo krijgen journalisten en advocaten voorrang op ‘gewone’ burgers en krijgen inwoners die meerdere Woo-verzoeken in een jaar doen minpunten.
·binnenlandsbestuur.nl·
Kritiek op Woo-voorrangsregels in Utrecht
Breda massaal aan de slimme deurbel: ‘Mensen weten vaak niet dat ze er juist een gevaar mee in huis halen’
Breda massaal aan de slimme deurbel: ‘Mensen weten vaak niet dat ze er juist een gevaar mee in huis halen’
BREDA – Breda loopt landelijk voorop in het gebruik van slimme deurbellen. Maar moeten de inwoners van deze stad daar wel blij mee zijn? Uit onderzoek blijkt dat veel mensen nauwelijks weten wat zo’n apparaat allemaal wel en niet kan. Vijf vragen aan digitaliseringsexpert Thijs Turèl.
·bndestem.nl·
Breda massaal aan de slimme deurbel: ‘Mensen weten vaak niet dat ze er juist een gevaar mee in huis halen’
Studie HNO Klinik Erlangen: Tinnitus weg nach nur einer Spritze? | pro.meinhoergeraet.de
Studie HNO Klinik Erlangen: Tinnitus weg nach nur einer Spritze? | pro.meinhoergeraet.de
Eine einzige Dosis – und das Dauerrauschen im Ohr verschwindet? Klingt fast zu gut, um wahr zu sein. Doch genau das will eine neue Studie zum Wirkstoff AC102 gezeigt haben. Könnte damit der Weg zu einer echten Tinnitus-Therapie endlich offenstehen? Die Ergebnisse aus Erlangen machen Mut. Zum ersten Mal gibt es konkrete Hinweise darauf, dass […]
·pro.meinhoergeraet.de·
Studie HNO Klinik Erlangen: Tinnitus weg nach nur einer Spritze? | pro.meinhoergeraet.de
Vroedvrouw Rodante van der Waal: ‘Binnen de geboortezorg is grensoverschrijdend gedrag genormaliseerd’
Vroedvrouw Rodante van der Waal: ‘Binnen de geboortezorg is grensoverschrijdend gedrag genormaliseerd’
Ze studeerden filosofie. Nu hebben ze een vak waarbij je niet meteen aan wijsbegeerte denkt. Hoe werken hun beroep en achtergrond op elkaar in? Vandaag: aflevering 3. Rodante van der Waal laat zich als vroedvrouw inspireren door antikoloniale en marxistische denkers.
·trouw.nl·
Vroedvrouw Rodante van der Waal: ‘Binnen de geboortezorg is grensoverschrijdend gedrag genormaliseerd’
Een van de opvallendste gebouwen van Twente dreigt te verdwijnen | Het beste van Tubantia | tubantia.nl
Een van de opvallendste gebouwen van Twente dreigt te verdwijnen | Het beste van Tubantia | tubantia.nl
Gaat het beroemdste gebouw van Goor uit het straatbeeld verdwijnen? Daar lijkt het wel op. De ADS Groep is van plan het ‘Hundertwasser’-gebouw te renoveren. En dus dreigt de sloophamer voor het karakteristieke pand, dat bekendheid verwierf in binnen- en buitenland.
·tubantia.nl·
Een van de opvallendste gebouwen van Twente dreigt te verdwijnen | Het beste van Tubantia | tubantia.nl
Stadsmuseum Veenendaal toont wandkleed over slavernijverleden
Stadsmuseum Veenendaal toont wandkleed over slavernijverleden
[VEENENDAAL] Wethouder Martijn Beek opende vrijdag de expositie Draden van ons Nederlandse slavernijverleden in Stadsmuseum Veenendaal. De expositie toont een wandkleed van 35 meter breed en 2,5 meter hoog dat de koloniale geschiedenis van de provincie Utrecht verbeeldt..
·derijnpost.nl·
Stadsmuseum Veenendaal toont wandkleed over slavernijverleden
Musk liet Starlinksysteem boven Oekraïne uitzetten om zo een Oekraïense aanval te verhinderen | de Volkskrant
Musk liet Starlinksysteem boven Oekraïne uitzetten om zo een Oekraïense aanval te verhinderen | de Volkskrant
Elon Musk heeft in 2022 het Starlink-systeem boven Oekraïne laten uitzetten. Het Oekraïense leger kon op slag geen drones meer gebruiken en ook de onderlinge communicatie viel uit. Musk verhinderde daarmee eigenhandig een Oekraïens offensief bij Cherson.
·volkskrant.nl·
Musk liet Starlinksysteem boven Oekraïne uitzetten om zo een Oekraïense aanval te verhinderen | de Volkskrant
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders

Direct naar artikelinhoud Website logo

Voorpagina Editie Best gelezen Rubrieken

Reconstructie Amsterdams algoritme Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders Bron Brechtje Rood Al vaker ging de overheid de mist in met algoritmes bedoeld om uitkeringsfraude te bestrijden. De gemeente Amsterdam wilde het allemaal anders doen, maar kwam erachter: een ethisch algoritme is een illusie.

Dit artikel is geschreven door Jeroen van Raalte redacteur lokale democratie

Gepubliceerd op 6 juni 2025, 22:00

Bewaren Delen Rutger Groot Wassink neemt plaats op zijn zetel in de Amsterdamse raadzaal. Hij zet zijn leesbril op, werpt een blik op de tablet voor zijn neus en richt zich dan tot de zaal met een korte mededeling. “Ik heb besloten de pilot stop te zetten.”

Wilt u elke dag de Middag nieuwsbrief van Trouw ontvangen via e-mail? E-mail Bijna terloops bezegelt de wethouder het lot van een groot experiment van Amsterdam met kunstmatige intelligentie. Jarenlang heeft de gemeente eraan gesleuteld. Maar nu, op deze woensdagmiddag in november 2023, draagt Groot Wassink het ten overstaan van een handvol gemeenteraadsleden ten grave.

Het gesneuvelde project heet Slimme Check, een zelflerend algoritme dat moest helpen bij de beoordeling van bijstandsaanvragen. Het computersysteem is ontwikkeld door de gemeente Amsterdam zelf. Het experiment is gedurfd, ambitieus, maar ook gevoelig. Kunstmatige intelligentie loslaten op de sociale zekerheid is een recept voor controverse.

Amsterdam trok alles uit de kast om een algoritme te bouwen dat de beoordeling van bijstandsaanvragen niet alleen efficiënter, maar ook rechtvaardiger maakt. De gemeente speelt open kaart en nodigt het journalistieke onderzoekscollectief Lighthouse Reports, dat eerder onthullingen deed over kwestieuze bijstandsalgoritmes, uit om over haar schouder mee te kijken.

Toch trekt wethouder Groot Wassink deze novemberdag de stekker uit Slimme Check. Waarom is het project mislukt? En wat leert dit over de valkuilen van kunstmatige intelligentie in de sociale zekerheid? In samenwerking met Lighthouse Reports en MIT Technology Review nam Trouw een kijkje onder de motorkap van het Amsterdamse algoritme.

Bron Brechtje Rood I. Een nobel algoritme Het idee voor een algoritme borrelt zo’n zeven jaar geleden op uit de ambtenarij. Bij de afdeling Werk, participatie en inkomen (WPI) bestaat de wens om de handhaving van de bijstand deels te automatiseren, vertelt strategisch adviseur Harry Bodaar in een kamer op het stadhuis.

De gemeente heeft namelijk een zware dobber aan de bijstand. Jaarlijks ontvangt de gemeente zo’n 7500 aanvragen voor een uitkering. Ambtenaren beoordelen deze handmatig. Zijn er op het eerste oog aanwijzingen voor onrechtmatigheid of zelfs fraude, dan belandt een aanvraag op het bureau van een handhaver. Die kan de indiener ondervragen en huisbezoeken afleggen. Blijkt de aanvraag in orde, dan wordt deze verwerkt. Zo niet, dan volgt een afwijzing.

Erg efficiënt gaat dit allemaal niet, zien ze bij WPI. Risico-inschatting is een complex, tijdrovend karwei. Het aantal aanvragen dat voor nadere controle naar de handhaving wordt doorgestuurd, daalt al jaren: van 15 procent in 2015 naar nog geen 4 procent in 2021. “Dat percentage is te laag, zeg ik uit ervaring”, aldus Bodaar, die al flink wat jaartjes meedraait in de handhaving.

Bovendien leveren die onderzoeken te weinig hits op. Het merendeel (60 procent) van de aanvragen die voor nader onderzoek worden geselecteerd, blijkt uiteindelijk gewoon rechtmatig. “Al die mensen hebben we dus ten onrechte lastiggevallen.”

AI maakt eerste schifting Kan kunstmatige intelligentie (AI) geen uitkomst bieden? Een systeem dat snel én beter een eerste schifting maakt in binnenkomende bijstandsaanvragen?

Amsterdam besluit een eigen computermodel te ontwikkelen. Het gaat om een zogeheten machinelearning-algoritme, dat met een dataset wordt getraind om onrechtmatige aanvragen te herkennen. De gedachte is dat AI patronen kan ontwaren die mensen ontgaan.

Aan de hand van vijftien features, kenmerken zoals inkomen en woonsituatie, bepaalt het model of een bijstandsaanvraag ‘onderzoekswaardig’ is. Zo ja, dan neemt een handhaver het dossier onder de loep.

Bron Bart Friso Amsterdam is niet de eerste gemeente die voor de verleiding van AI valt. De technologie oogt veelbelovend, maar ongelukken liggen op de loer. In Nederland kwam het al tot meerdere schandalen.

Zo verbood de rechter in 2020 het gebruik van SyRI, een overheidssysteem bedoeld om uitkeringsfraude op te sporen. Het jaar daarop staakte de gemeente Nissewaard de samenwerking met een databedrijf dat bijstandsaanvragen analyseerde op frauderisico’s – het systeem bleek onbetrouwbaar. En Rotterdam stopte in 2023 met een bijstandsalgoritme nadat Lighthouse Reports onthulde dat het alleenstaande moeders discrimineerde. Zelflerende algoritmes speelden ook een rol in de toeslagenaffaire bij de Belastingdienst.

Geen klopjacht, geen geheimen Op het Amsterdamse stadhuis zijn ze zich bewust van deze miskleunen. De progressieve hoofdstad wil het allemaal anders doen. Geen ontspoorde klopjacht op vermeende fraudeurs. Geen geheimzinnigheid. Geen vooringenomen algoritmes die kwetsbare groepen benadelen. Ditmaal moet kunstmatige intelligentie de burger dienen.

Het doel van Slimme Check is dan ook niet zoveel mogelijk fraudeurs pakken. De gemeente heeft een nobelere insteek: schulden voorkomen. “Als iemand te veel bijstand heeft ontvangen, moeten wij van de wet dat bedrag tot op de laatste cent terugvorderen”, schetst Bodaar.

Dat komt veel voor. De participatiewet is zo ingewikkeld geworden, dat een foutje snel is gemaakt. Ongeveer tienduizend Amsterdammers moeten momenteel (een deel van) hun ontvangen uitkering terugbetalen aan de gemeente. Een algoritme kan helpen het aantal uitkeringen dat onterecht wordt verstrekt te verminderen, redeneert de gemeente.

“We willen graag minder mensen met een bijstandsschuld”, zegt Bodaar. “Dus kiezen we voor preventie.”

II. Het gevaar van proxy’s De Amsterdamse programmeurs gaan volgens het boekje te werk. Naar gevoelige kenmerken als etniciteit, nationaliteit en geslacht kijkt het algoritme niet. Door het model te beperken tot vijftien features – ter vergelijking: het verboden overheidssysteem SyRI telde bijna negentig risico-indicatoren – willen ze de kans op onbedoelde discriminatie door het algoritme uitsluiten.

Want via omwegen, zogeheten proxy’s, kunnen vooroordelen alsnog een computermodel insluipen. Een bekend voorbeeld hiervan zijn postcodes. Op het oog is dat een objectieve maatstaf, maar wanneer in een wijk veel mensen met een migratieachtergrond wonen, kan dat ertoe leiden dat het algoritme alsnog onevenredig vaak een etnische groep als risico bestempelt.

Amsterdam wil daarnaast voorkomen dat het systeem een zwarte doos wordt. Slimme Check moet een explainable (uitlegbaar) algoritme zijn: een leek moet kunnen begrijpen hoe het model tot zijn oordeel komt. “Een beetje een marketingterm”, stelt Jurriaan Parie. Hij is directeur van Algorithm Audit, een Haagse stichting die maatschappelijke toepassingen van algoritmes onderzoekt. “Het algoritme is ietsje begrijpelijker. Maar het blijft te complex om aan gewone burgers uit te leggen.”

Eigenlijk, zegt zijn collega Ylja Remmits, moet je in zo’n model alleen variabelen stoppen die een logisch verband hebben met wat je probeert te voorspellen. “Neem de kleur van iemands auto. Die zegt natuurlijk niets over frauderisico’s, maar zou in een computermodel wel een statistische correlatie kunnen vertonen met fraude.”

Om zulke missers voor te zijn, wint het Amsterdamse team in 2022 advies in bij een keur aan adviesgroepen. Zo laten ze een mensenrechtenassessment, een privacytoets en een AI-assessment uitvoeren. Ook de Commissie Persoonsgegevens en adviesbureau Deloitte buigen zich over het project. Na wat mitsen en maren geven ze allemaal hun zegen.

Behalve één.

III. Wantrouwen en kritiek In een Amsterdams café parkeert Anke van der Vliet (76) haar rollator, vist haar leesbril uit een etui en zet zich aan een tafeltje. Al decennialang komt ze op voor de belangen van mensen in de bijstand. Dit zijn er zo’n veertigduizend in Amsterdam. Tot voor kort was ze lid van de Participatieraad, die namens Amsterdamse uitkeringsgerechtigden de gemeente gevraagd en ongevraagd advies geeft.

Ook over Slimme Check. “Wij wantrouwden het vanaf het begin”, vertelt Van der Vliet. “Iedereen was ertegen.” Dat de gemeente een heel systeem optuigt om een handvol fraudeurs te pakken, is disproportioneel, zo schrijft de Participatieraad in het voorjaar van 2022 in een negatief advies. Daarin uit de raad ook zorgen over privacy: ‘De raad is van mening dat een dergelijk experiment de fundamentele grondrechten van burgers aantast en dient te worden gestaakt.’

Intern volgen meer kritische geluiden. Begin 2023, als het computermodel zo goed als gereed is voor een test in de praktijk, publiceert de gemeente het plan voor Slimme Check in het algoritmeregister. Als eerste stad in Nederland hanteert Amsterdam een openbaar overzicht van alle algoritmes die de burger kunnen raken.

Bron Brechtje Rood ‘Een slecht idee’ Als Hans de Zwart over het project leest, valt hij bijna van zijn stoel. “Ik dacht meteen: dit is een slecht idee.” De Zwart geldt als een luis in de pels. De voormalig directeur van Bits of Freedom is als techniekfilosoof verbonden aan de Hogeschool van Amsterdam, bij een afdeling die op verzoek van de gemeente kritisch meedenkt over technologische ontwikkelingen.

Quote van techniekfilosoof Hans de Zwart . In de computerwereld klinkt steeds meer de kritiek dat algoritmes zich niet lenen voor fraudebestrijding techniekfilosoof Hans de Zwart Al gaat de gemeente nog zo zorgvuldig te werk, volgens hem blijft het risico op geautomatiseerde discriminatie levensgroot bij zo’n computermodel. “Je moet heel terughoudend zijn met het gebruik van algoritmes voor dit soort doeleinden

·trouw.nl·
Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders