Implementatie van de Gedragslijn AI & Ethiek binnen pensioenfondsen

Neemt u gerust contact met ons op 0682692429

Implementatie van de Gedragslijn AI & Ethiek binnen pensioenfondsen

6 juli 2025 W&R 0

Inleiding

In het eerste kwartaal van dit jaar informeerden wij u met een nieuwsbrief over de gevolgen van de Europese AI-verordening (AI Act) voor pensioenfondsen. Daarin gaven wij een overzicht van de wettelijke verplichtingen, risicoclassificaties en de verantwoordelijkheden van het bestuur. Veel fondsen zijn inmiddels gestart met het in kaart brengen van AI-toepassingen en het aanspreken van leveranciers.

Met deze tweede nieuwsbrief willen we een vervolgstap zetten. We zoomen ditmaal in op de sectorale uitwerking van de AI-ontwikkelingen: de Gedragslijn AI & Ethiek die in december 2024 is gepubliceerd door de Pensioenfederatie. Deze gedragslijn is bedoeld om pensioenfondsen concrete handvatten te geven voor een zorgvuldige inzet van AI, aanvullend op de Europese wetgeving.

De nieuwsbrief helpt u om de 21 principes uit de Gedragslijn te vertalen naar beheersmaatregelen, governance-structuren en praktische stappen voor implementatie. Daarmee ondersteunen we u bij het verder ontwikkelen van een verantwoorde en transparante AI-aanpak binnen uw fonds.

Kern van de Gedragslijn

De Gedragslijn AI & Ethiek van de Pensioenfederatie is een bovenwettelijk normenkader. Dit betekent dat de richtlijnen verder gaan dan de minimale eisen uit de Europese AI-verordening. In sommige gevallen kan een AI-toepassing juridisch toegestaan zijn onder de AI Act, maar toch als onwenselijk of risicovol worden aangemerkt in de Gedragslijn. In dat geval wordt van pensioenfondsen verwacht dat zij een expliciete afweging maken en hier transparant over rapporteren. Deze sectorale standaard bevordert verantwoord gedrag, ook in grijze of toekomstige situaties die juridisch (nog) niet volledig zijn uitgekristalliseerd.

De Gedragslijn onderstreept ook het belang van maatschappelijke impact. AI moet niet alleen effectief en veilig zijn, maar ook bijdragen aan brede welvaart. Dat betekent aandacht voor duurzaamheid (zoals het energieverbruik van modellen), sociale rechtvaardigheid, inclusie, en het voorkomen van digitale uitsluiting. ESG-factoren spelen hierbij een centrale rol.

Tot slot benadrukt de Gedragslijn het belang van sectorale samenwerking. Door ervaringen, risico’s, oplossingen en voorbeelden actief te delen, kunnen pensioenfondsen gezamenlijk leren en de kwaliteit van AI-gebruik binnen de sector verbeteren. De Federatie faciliteert dit onder meer via kennisuitwisseling, evaluaties en gezamenlijke self-assessments.

De Gedragslijn AI & Ethiek bestaat uit 21 principes die pensioenfondsen helpen om AI op een verantwoorde manier toe te passen. Deze principes zijn verdeeld over zeven centrale thema’s:

  1. Verantwoording: wie is eindverantwoordelijk bij de inzet van AI?
  2. Menselijke autonomie: blijft de mens in control over de beslissingen?
  3. Technische robuustheid: is het systeem bestand tegen storingen en aanvallen?
  4. Privacy & data-governance: worden persoonsgegevens zorgvuldig verwerkt?
  5. Transparantie: is het duidelijk hoe beslissingen tot stand komen?
  6. Diversiteit & non-discriminatie: voorkomt het systeem vooroordelen en ongelijke behandeling?
  7. Maatschappelijk welzijn: draagt AI bij aan brede welvaart en duurzaamheid?

De Gedragslijn is principes-gedreven en technologie-neutraal. Dat betekent dat de nadruk ligt op gedragsnormen, ongeacht de technische aard van de AI-toepassing. Pensioenfondsen worden nadrukkelijk uitgenodigd om samen te werken en ervaringen uit te wisselen.

Risico-overzicht

AI biedt kansen, maar brengt ook risico’s met zich mee. De Pensioenfederatie wijst op verschillende potentiële risico’s, waaronder:

  • Datakwaliteit en bias: Als trainingsdata niet representatief zijn, kan dit leiden tot fouten in bijvoorbeeld de pensioenberekening. Denk aan achtergestelde groepen die onterecht een lager pensioenadvies krijgen.
  • Gebrek aan uitlegbaarheid: AI-systemen kunnen beslissingen nemen die moeilijk te verklaren zijn voor deelnemers of toezichthouders. Dat belemmert de mogelijkheid tot bezwaar.
  • Privacy en AVG-compliance: AI-toepassingen verwerken vaak grote hoeveelheden data, waaronder soms biometrische gegevens. Dit moet volledig in lijn zijn met de AVG.
  • Cyberveiligheid: AI-systemen zijn gevoelig voor manipulatie en aanvallen. Dat kan leiden tot datalekken of verstoring van processen.
  • Uitbesteding: Wanneer AI-diensten worden ingekocht via externe leveranciers, is het cruciaal dat het fonds voldoende inzicht heeft in de werking van het algoritme.
  • Reputatie: Een incident, bijvoorbeeld een discriminerende chatbot, kan leiden tot maatschappelijke onrust en reputatieschade.
  • Duurzaamheid: Sommige AI-modellen verbruiken veel energie en kunnen daarmee de ecologische voetafdruk van het fonds vergroten.

Beheersmaatregelen in de praktijk

Om deze risico’s beheersbaar te maken, adviseren wij een gestructureerde aanpak die bestaat uit meerdere lagen. Hieronder volgt een overzicht van concrete stappen:

1. Beleid & governance
Begin met het opstellen van een beleidskader voor AI. Bepaal hierin de risicobereidheid van het fonds en leg vast welke rollen en verantwoordelijkheden gelden bij de inzet van AI (denk aan een RACI-matrix). Koppel AI-gerelateerde onderwerpen aan bestaande sleutelfuncties zoals risicomanagement en compliance.

2. Risicoclassificatie & Impact Assessment
Classificeer alle AI-toepassingen op basis van de AI-verordening in vier risiconiveaus: verboden, hoog, beperkt of laag risico. Voor toepassingen met een hoog risico moet een uitgebreide risico- en impactanalyse worden uitgevoerd, waarin onder andere ethische, juridische en ESG-aspecten worden meegenomen.

3. Menselijk toezicht (“human-in-command”)
Beleg altijd een eindcontrole bij een mens. Vooral bij beslissingen die gevolgen hebben voor rechten van deelnemers, zoals uitkeringen, invaren en beleggingskeuzes, moet menselijk toezicht verplicht zijn ingebouwd.

4. Datakwaliteit en governance
Voer controles uit op de juistheid en volledigheid van data. Voer bias-tests uit en documenteer hoe datastromen zijn ingericht. Pas het principe van dataminimalisatie toe om alleen de noodzakelijke gegevens te verwerken.

5. Cybersecurity & robuustheid
Implementeer ‘secure-by-design’-principes. Test AI-modellen op kwetsbaarheden en zorg voor een fallback-plan wanneer een AI-toepassing uitvalt.

6. Opleiding & bewustwording
Zorg ervoor dat bestuurders, interne toezichthouders en medewerkers jaarlijks training krijgen in AI-ethiek, biasherkenning en uitlegbaarheid. Dit versterkt de beheersing en bewustwording in de organisatie.

7. Transparantie & rapportage
Breng jaarlijks verslag uit over de inzet van AI. Publiceer een AI-verklaring waarin u uitlegt welke toepassingen worden gebruikt en hoe deze voldoen aan wet- en regelgeving.

8. Monitoring & audit trail
Bouw logboeken in waarmee alle beslissingen van AI-systemen traceerbaar zijn. Hertrain AI-modellen periodiek om achteruitgang in prestaties of ongewenst gedrag te voorkomen.

9. Derde partijen & leveranciers
Zorg dat contracten met leveranciers eisen bevatten over naleving van de Gedragslijn en de AI-verordening. Vraag indien nodig om assurance-rapporten zoals ISAE 3402 type II.

10. Incident- & klachtenafhandeling
Breid uw bestaande klachtenregeling uit met een hoofdstuk over AI. Zorg dat incidenten met AI snel kunnen worden gemeld en hersteld.

Wat zegt de Pensioenfederatie?

De Pensioenfederatie stelt dat AI-toepassingen die als ‘onacceptabel risico’ zijn geclassificeerd, niet mogen worden toegepast door pensioenfondsen. Verder wordt verwacht dat fondsen een zeer lage risicobereidheid hanteren ten aanzien van AI. Het is belangrijk om deze houding ook expliciet kenbaar te maken aan stakeholders, bijvoorbeeld via beleid of communicatie.

In het derde kwartaal van 2025 komt de Federatie met een self-assessment vragenlijst waarmee fondsen hun volwassenheid en naleving van de Gedragslijn kunnen toetsen. In november 2025 worden ervaringen met de Gedragslijn opgehaald voor een jaarlijkse evaluatie en eventuele aanpassing.

Let op: ook als AI-toepassingen volledig zijn uitbesteed aan uitvoeringsorganisaties of leveranciers, blijft het pensioenfonds eindverantwoordelijk voor het toezicht op naleving van de Gedragslijn en de AI-verordening. Dit vereist expliciete afspraken, monitoring en risicobeoordeling, net als bij interne processen.

Hulp nodig?

De Pensioenfederatie heeft op haar ledenomgeving een aantal praktische hulpmiddelen beschikbaar gesteld ter ondersteuning van de Gedragslijn AI & Ethiek. Denk aan templates voor AI-beleid, formats voor risico- en impactassessments (AIR) en voorbeeldclausules voor leverancierscontracten. Deze documenten vindt u in de servicedocumenten op de website van de Pensioenfederatie, onder het dossier ‘AI & Ethiek’.