Verantwoorde AI in de Adviespraktijk

(Ken je vak! VVP 4-5 2024) In dit vijfde deel van de serie ‘AI in de Adviespraktijk’ deelt Dennie van den Biggelaar, CTO van Onesurance.ai, inzichten over de maatschappelijke en ethische aspecten van kunstmatige intelligentie (AI). Hij benadrukt hoe cruciaal vertrouwen is bij het verantwoord inzetten van AI binnen de verzekeringssector. In het eerste deel (VVP 1, 2024) liet hij zien hoe je van start gaat met Machine Learning, in het tweede deel (VVP 2) hoe je AI operationaliseert in je bedrijfsprocessen, in het derde deel (VVP 3) stond integratie van AI-software in bestaande IT-landschappen centraal en in VVP 4 ‘Meten = leren’.
Vertrouwen vormt de basis van elke relatie tussen klanten, verzekeraars en intermediairs. Als je AI inzet om klantrelaties te onderhouden, mag dit dus nooit ten koste gaan van het wederzijds vertrouwen. Sterker nog: een nieuwe technologie zou dit vertrouwen juist moeten versterken. Maar hoe vind je de juiste balans tussen de mogelijkheden van enerzijds geavanceerde AI-technologie en anderzijds verantwoordelijkheid, transparantie en vertrouwen? Tot een jaar geleden ontbraken hiervoor duidelijke kaders of richtlijnen. Dit vormde een drempel voor eindverantwoordelijken om de mogelijkheden van AI te verkennen.
AI Act
Gelukkig is er nu de AI Act , die al in juni 2023 werd aangenomen door het Europees Parlement en die vanaf 2025 stapsgewijs van kracht
Zo ziet ook de AFM de AI Act als een noodzakelijke stap om consumenten te beschermen en het vertrouwen in AI-toepassingen te kweken. Transparantie, eerlijkheid en veiligheid zijn volgens de AFM cruciaal voor AI-implementaties in de financiële sector.
De wet verdeelt AI-systemen in risicocategorieën. In de verzekeringssector vallen veel toepassingen onder de hoog-risico categorie, omdat deze AI-oplossingen directe invloed hebben op de financiële situatie van klanten. Voor hoog-risico toepassingen stelt de AI Act strenge transparantie- en beveiligingseisen. Zowel klanten als adviseurs moeten kunnen inzien welke factoren tot een bepaald verzekeringsadvies hebben geleid.
‘Door de verantwoordelijkheid wettelijk vast te leggen, is de tijd van ‘vrijblijvend experimenteren’ met AI voorbij’
Data-ethische kaders
Naast de AI Act moeten verzekeraars in Nederland voldoen aan de dataethische richtlijnen van het Verbond van Verzekeraars. Deze richtlijnen benadrukken transparantie, proportionaliteit en zorgvuldigheid bij datagebruik. Ze helpen verzekeraars en intermediairs om data op een verantwoorde manier te beheren en klanten goed te adviseren.
De ethische richtlijnen komen in veel opzichten overeen met de AI Act, maar zijn minder strikt afdwingbaar. Waar de AI Act harde sancties kent, moedigen de richtlijnen van het Verbond bedrijven aan om zelf verantwoordelijkheid te nemen. Ze bieden ook ruimte voor maatwerk, waardoor intermediairs hun AI-implementaties kunnen afstemmen op klantbehoeften.
Ingrediënten verantwoorde AI
Zowel de AI Act als het Verbond van Verzekeraars pleiten voor een verantwoorde inzet van AI. Zo moet een verantwoorde AI toepassing tenminste aan een aantal essentiële eisen vol doen:
Eerlijk en niet-discriminerend. De toepassing van AI mag nooit een negatieve impact hebben op individu of maatschappij, moet altijd eerlijk handelen en mag niet ongehoord discrimineren op basis van leeftijd, geslacht en etniciteit;
Transparant en uitlegbaar. Transparante en uitlegbare toepassingen maken het mogelijk voor adviseurs, acceptanten en eindconsumenten om te begrijpen hoe een advies tot stand is gekomen, wat bijdraagt aan transparantie en dus aan vertrouwen;
Betrouwbaar en veilig. Het algoritme wordt kwantitatief gemonitord op betrouwbaarheid, eerlijkheid en veranderingen in de data of de onderliggende modellen en wordt periodiek kwalitatief ge-audit door een externe expert;
Voldoet aan privacy wetgeving. Datagebruik voldoet aan de AVG en gebruikte data wordt zoveel mogelijk geminimaliseerd, geanonimiseerd en ge-encrypt zodat het niet-herleidbaar is naar individuen;
Verantwoordelijkheid nemen. Er wordt expliciet vastgelegd wie in welke mate verantwoordelijk is voor de AI-toepassing en de bijkomende risico’s, zodat de naleving van afspraken en regelgeving kan worden gecontroleerd en ge-audit.
Adviseurs en acceptanten zullen deze normen direct herkennen, omdat deze sterk overeenkomen met de Wft. Het is dus volkomen logisch dat dezelfde eisen ook worden gesteld aan een AI-toepassing die deze menselijke experts moet ondersteunen.
Dennie van den Biggelaar: ‘Duidelijk kader voor een duurzame toekomst.’
Gevolgen van niet-naleving
De AI Act is geen vrijblijvende richtlijn en is juist bedoeld om verantwoorde AI af te dwingen. Niet voldoen aan de regels kan forse financiële en ju ridische gevolgen hebben, met boetes die kunnen oplopen tot zes procent van de wereldwijde jaaromzet van een bedrijf. Niet-naleving kan bovendien leiden tot reputatieschade en verlies van klanten. Intermediairs, die hun dienstverlening baseren op klantrelaties, lopen bij overtredingen ook een verhoogd risico op claims en aansprakelijkheid.
Zonder strikte naleving van de AI Act, en zonder deskundig toezicht op AI-systemen, riskeren bedrijven naast boetes, ook aanwijzingen van de AFM, terwijl beroepsaansprakelijkheidsverzekeraars, zoals BAVAM, dergelijke claims niet (zonder meer) meeverzekeren. Het niet naleven van de AI Act kan daarom niet alleen de klantrelaties schaden, maar ook de operationele continuïteit en verzekerbaarheid van een bedrijf in gevaar brengen.
Verzekeraars en intermediairs, die AI inzetten voor risicoanalyse, prijsbepaling, acceptatie en advies, krijgen dus te maken met extra verplichtingen. De gevolgen van het niet naleven moet voorkomen dat organisaties met AI aan de slag gaan, zonder hiervoor de juiste expertise en kennis in huis te hebben. Door de verantwoordelijkheid wettelijk vast te leggen, is de tijd van ‘vrijblijvend experimenteren’ met AI voorbij.
Keurmerk voor verantwoord AI
De mate waarin een nieuwe technologie wordt vastgelegd in richtlijnen, protocollen en wetgeving zegt iets over de volwassenheid. Een logisch gevolg is dus dat er een keurmerk komt voor AI-toepassingen die voldoen aan de wetgving en richtlijnen. Zo vinden we het heel normaal dat we onze auto elk jaar laten keuren en dat auto’s uitgebreid getest worden voordat de consument ermee de weg op gaat. Dit zorgt ervoor dat de techniek veilig en soepel functioneert zoals het hoort en dat je geen ongelukken veroorzaakt of een gevaar bent voor anderen.
Je mag van een AI-systeem dezelfde principes verwachten. Vraag om een keurmerk of bewijs van de gehanteerde wetgeving en richtlijnen en welke tests hiervoor zijn ondergaan. Is dit intern getest of is dit uitgevoerd door een objectieve externe specialist? Als eindverantwoordelijke is het aan te raden om deze hoge eisen te stellen aan de techniek die je gebruikt.
‘De toekomst zal waarschijnlijk een hybride vorm zijn waarin wet- en regelgeving samengaan met ethische normen’
Verantwoord ‘by design’
Bij het ontwikkelaars van nieuwe AI-toepassingen is het raadzaam om bij het ontwerp van het AI-systeem al rekening te houden met eerlijkheid, transparantie, veiligheid en privacy. Dit principe wordt Responsible AI by design genoemd. In plaats van AI-systemen achteraf te evalueren en te corrigeren voor veranderende wetgeving, worden de principes van verantwoorde AI proactief toegepast op basis van ethische overwegingen, zodat privacybescherming en veiligheidsmechanismen in de kern zijn verweven in de technologie.
Naar een duurzame toekomst
De AI Act en de ethische kaders van het Verbond van Verzekeraars vormen samen een duidelijk kader voor een duurzame toekomst waarin technologie en ethiek hand in hand gaan. Verzekeraars en intermediairs krijgen hiermee de kans om AI op een verantwoorde manier in te zetten, zodat klantvertrouwen wordt versterkt en de kwaliteit van advies verbetert.
De toekomst zal waarschijnlijk een hybride vorm zijn waarin wet- en regelgeving samengaan met ethische normen. Verzekeraars en intermediairs kunnen deze kaders gebruiken om hun AI-strategieën af te stemmen op klantbehoeften en daarnaast te voldoen aan hoge eisen van transparantie en integriteit. Dit biedt intermediairs de kans om met moderne technologie een betrouwbare en ethische adviespraktijk te bouwen, waarin klanten op een persoonlijke én verantwoorde manier worden geholpen.
Reactie toevoegen
Meer over
AI met stip gestegen als bedrijfsrisico
AI is met stip gestegen in de top van bedrijfsmatige risico's, aldus de Allianz Risk Barometer 2026. Stond AI in de vorige barometer op plaats tien, nu is dat de...
AI: van hype naar praktisch hulpmiddel
(Adfiz in katern Advieskansen 2026 in VVP 4-2025) Personeelskrapte en een almaar toenemende regeldruk; het zijn dé uitdagingen waar veel advieskantoren...
Van concurrentie naar connectie
(Jack Vos, Onesurance, in VVP 4-2025) Jarenlang werd innovatie in verzekeren gezien als een wedstrijd: wie digitaliseerde het snelst, wie bouwde de beste app,...
(Uit VVP 4-2025) “Gebruik AI om tijd vrij te maken voor echt klantcontact, investeer in oprechte zichtbaarheid, kies iets dat past bij jouw DNA en regio...
Adfiz bereidt AI Kennisdossier uit
Adfiz heeft het AI kennisdossier uitgebreid met een nieuwe pagina met tools, tricks en tips. Adviseurs vinden hier r een combinatie van praktische voorbeelden,...
Vindbaarheid nieuwe uitdaging in AI-gedreven zoekwereld
In de jaarlijkse Digital Customer Journey benchmark van Sia scoort ANWB opnieuw het hoogst. Sia: "ANWV wordt op de voet gevolgd door Univé, Inshared, Centraal...
IG&H: financiële sector uit AI-experimenteerfase
Zestig procent van de marktpartijen in de verzekeringssector is uit de AI-experimenteerfase gekomen. Hiervan weet 20 procent AI al op schaal toe te passen, aldus...
Insify komt met AI-gedreven SmartGuide
“Onze SmartGuide verandert de manier waarop ondernemers hun AOV regelen.” Dat stelt Insify bij de introductie van haar nieuwe, AI-gedreven tool SmartGuide. Koen...
"Eenderde Nederlanders gebruikt AI voor financieel advies"
Kunstmatige intelligentie (AI) wordt door veel Nederlanders ingezet bij financiële vragen. Uit onderzoek van Multiscope in opdracht van het lokale dienstverleningsplatform...
Het echte advies blijft mensenwerk
(Uit VVP-special Slimmer Adviseren 2025) Generatieve AI is nu al niet meer weg te denken uit de adviespraktijk. Maar wat zijn de valkuilen? Weet u wat: we vragen...









