Verantwoorde AI in de Adviespraktijk
(Ken je vak! VVP 4-5 2024) In dit vijfde deel van de serie ‘AI in de Adviespraktijk’ deelt Dennie van den Biggelaar, CTO van Onesurance.ai, inzichten over de maatschappelijke en ethische aspecten van kunstmatige intelligentie (AI). Hij benadrukt hoe cruciaal vertrouwen is bij het verantwoord inzetten van AI binnen de verzekeringssector. In het eerste deel (VVP 1, 2024) liet hij zien hoe je van start gaat met Machine Learning, in het tweede deel (VVP 2) hoe je AI operationaliseert in je bedrijfsprocessen, in het derde deel (VVP 3) stond integratie van AI-software in bestaande IT-landschappen centraal en in VVP 4 ‘Meten = leren’.
Vertrouwen vormt de basis van elke relatie tussen klanten, verzekeraars en intermediairs. Als je AI inzet om klantrelaties te onderhouden, mag dit dus nooit ten koste gaan van het wederzijds vertrouwen. Sterker nog: een nieuwe technologie zou dit vertrouwen juist moeten versterken. Maar hoe vind je de juiste balans tussen de mogelijkheden van enerzijds geavanceerde AI-technologie en anderzijds verantwoordelijkheid, transparantie en vertrouwen? Tot een jaar geleden ontbraken hiervoor duidelijke kaders of richtlijnen. Dit vormde een drempel voor eindverantwoordelijken om de mogelijkheden van AI te verkennen.
AI Act
Gelukkig is er nu de AI Act , die al in juni 2023 werd aangenomen door het Europees Parlement en die vanaf 2025 stapsgewijs van kracht
Zo ziet ook de AFM de AI Act als een noodzakelijke stap om consumenten te beschermen en het vertrouwen in AI-toepassingen te kweken. Transparantie, eerlijkheid en veiligheid zijn volgens de AFM cruciaal voor AI-implementaties in de financiële sector.
De wet verdeelt AI-systemen in risicocategorieën. In de verzekeringssector vallen veel toepassingen onder de hoog-risico categorie, omdat deze AI-oplossingen directe invloed hebben op de financiële situatie van klanten. Voor hoog-risico toepassingen stelt de AI Act strenge transparantie- en beveiligingseisen. Zowel klanten als adviseurs moeten kunnen inzien welke factoren tot een bepaald verzekeringsadvies hebben geleid.
‘Door de verantwoordelijkheid wettelijk vast te leggen, is de tijd van ‘vrijblijvend experimenteren’ met AI voorbij’
Data-ethische kaders
Naast de AI Act moeten verzekeraars in Nederland voldoen aan de dataethische richtlijnen van het Verbond van Verzekeraars. Deze richtlijnen benadrukken transparantie, proportionaliteit en zorgvuldigheid bij datagebruik. Ze helpen verzekeraars en intermediairs om data op een verantwoorde manier te beheren en klanten goed te adviseren.
De ethische richtlijnen komen in veel opzichten overeen met de AI Act, maar zijn minder strikt afdwingbaar. Waar de AI Act harde sancties kent, moedigen de richtlijnen van het Verbond bedrijven aan om zelf verantwoordelijkheid te nemen. Ze bieden ook ruimte voor maatwerk, waardoor intermediairs hun AI-implementaties kunnen afstemmen op klantbehoeften.
Ingrediënten verantwoorde AI
Zowel de AI Act als het Verbond van Verzekeraars pleiten voor een verantwoorde inzet van AI. Zo moet een verantwoorde AI toepassing tenminste aan een aantal essentiële eisen vol doen:
Eerlijk en niet-discriminerend. De toepassing van AI mag nooit een negatieve impact hebben op individu of maatschappij, moet altijd eerlijk handelen en mag niet ongehoord discrimineren op basis van leeftijd, geslacht en etniciteit;
Transparant en uitlegbaar. Transparante en uitlegbare toepassingen maken het mogelijk voor adviseurs, acceptanten en eindconsumenten om te begrijpen hoe een advies tot stand is gekomen, wat bijdraagt aan transparantie en dus aan vertrouwen;
Betrouwbaar en veilig. Het algoritme wordt kwantitatief gemonitord op betrouwbaarheid, eerlijkheid en veranderingen in de data of de onderliggende modellen en wordt periodiek kwalitatief ge-audit door een externe expert;
Voldoet aan privacy wetgeving. Datagebruik voldoet aan de AVG en gebruikte data wordt zoveel mogelijk geminimaliseerd, geanonimiseerd en ge-encrypt zodat het niet-herleidbaar is naar individuen;
Verantwoordelijkheid nemen. Er wordt expliciet vastgelegd wie in welke mate verantwoordelijk is voor de AI-toepassing en de bijkomende risico’s, zodat de naleving van afspraken en regelgeving kan worden gecontroleerd en ge-audit.
Adviseurs en acceptanten zullen deze normen direct herkennen, omdat deze sterk overeenkomen met de Wft. Het is dus volkomen logisch dat dezelfde eisen ook worden gesteld aan een AI-toepassing die deze menselijke experts moet ondersteunen.
Dennie van den Biggelaar: ‘Duidelijk kader voor een duurzame toekomst.’
Gevolgen van niet-naleving
De AI Act is geen vrijblijvende richtlijn en is juist bedoeld om verantwoorde AI af te dwingen. Niet voldoen aan de regels kan forse financiële en ju ridische gevolgen hebben, met boetes die kunnen oplopen tot zes procent van de wereldwijde jaaromzet van een bedrijf. Niet-naleving kan bovendien leiden tot reputatieschade en verlies van klanten. Intermediairs, die hun dienstverlening baseren op klantrelaties, lopen bij overtredingen ook een verhoogd risico op claims en aansprakelijkheid.
Zonder strikte naleving van de AI Act, en zonder deskundig toezicht op AI-systemen, riskeren bedrijven naast boetes, ook aanwijzingen van de AFM, terwijl beroepsaansprakelijkheidsverzekeraars, zoals BAVAM, dergelijke claims niet (zonder meer) meeverzekeren. Het niet naleven van de AI Act kan daarom niet alleen de klantrelaties schaden, maar ook de operationele continuïteit en verzekerbaarheid van een bedrijf in gevaar brengen.
Verzekeraars en intermediairs, die AI inzetten voor risicoanalyse, prijsbepaling, acceptatie en advies, krijgen dus te maken met extra verplichtingen. De gevolgen van het niet naleven moet voorkomen dat organisaties met AI aan de slag gaan, zonder hiervoor de juiste expertise en kennis in huis te hebben. Door de verantwoordelijkheid wettelijk vast te leggen, is de tijd van ‘vrijblijvend experimenteren’ met AI voorbij.
Keurmerk voor verantwoord AI
De mate waarin een nieuwe technologie wordt vastgelegd in richtlijnen, protocollen en wetgeving zegt iets over de volwassenheid. Een logisch gevolg is dus dat er een keurmerk komt voor AI-toepassingen die voldoen aan de wetgving en richtlijnen. Zo vinden we het heel normaal dat we onze auto elk jaar laten keuren en dat auto’s uitgebreid getest worden voordat de consument ermee de weg op gaat. Dit zorgt ervoor dat de techniek veilig en soepel functioneert zoals het hoort en dat je geen ongelukken veroorzaakt of een gevaar bent voor anderen.
Je mag van een AI-systeem dezelfde principes verwachten. Vraag om een keurmerk of bewijs van de gehanteerde wetgeving en richtlijnen en welke tests hiervoor zijn ondergaan. Is dit intern getest of is dit uitgevoerd door een objectieve externe specialist? Als eindverantwoordelijke is het aan te raden om deze hoge eisen te stellen aan de techniek die je gebruikt.
‘De toekomst zal waarschijnlijk een hybride vorm zijn waarin wet- en regelgeving samengaan met ethische normen’
Verantwoord ‘by design’
Bij het ontwikkelaars van nieuwe AI-toepassingen is het raadzaam om bij het ontwerp van het AI-systeem al rekening te houden met eerlijkheid, transparantie, veiligheid en privacy. Dit principe wordt Responsible AI by design genoemd. In plaats van AI-systemen achteraf te evalueren en te corrigeren voor veranderende wetgeving, worden de principes van verantwoorde AI proactief toegepast op basis van ethische overwegingen, zodat privacybescherming en veiligheidsmechanismen in de kern zijn verweven in de technologie.
Naar een duurzame toekomst
De AI Act en de ethische kaders van het Verbond van Verzekeraars vormen samen een duidelijk kader voor een duurzame toekomst waarin technologie en ethiek hand in hand gaan. Verzekeraars en intermediairs krijgen hiermee de kans om AI op een verantwoorde manier in te zetten, zodat klantvertrouwen wordt versterkt en de kwaliteit van advies verbetert.
De toekomst zal waarschijnlijk een hybride vorm zijn waarin wet- en regelgeving samengaan met ethische normen. Verzekeraars en intermediairs kunnen deze kaders gebruiken om hun AI-strategieën af te stemmen op klantbehoeften en daarnaast te voldoen aan hoge eisen van transparantie en integriteit. Dit biedt intermediairs de kans om met moderne technologie een betrouwbare en ethische adviespraktijk te bouwen, waarin klanten op een persoonlijke én verantwoorde manier worden geholpen.
Reactie toevoegen
Meer over
ChatGPT’s aandachtspunten voor duurzaam financieel advies
(Uit VVP-special Duurzaam Advies 2025) Duurzaam financieel advies vereist, aldus ChatGPT, een strategische en holistische benadering waarbij zowel financiële...
Positive Finance Day 2025: van onderstroom naar bulderende rivier
De Positive Finance Day 2025 van MaatschapWij en Dazure maakte duidelijk dat de onderstroom in de samenleving op weg naar een groenere, gezondere en meer verbonden...
Zevende Positive Finance Day: de kracht van de onderstroom
MaatschapWij organiseert op 13 maart 2025 in Zeist, samen met Dazure, de zevende Positive Finance Day met als thema: De kracht van de onderstroom. Met topsprekers...
Van modewoord naar must-have: digitale transformatie in de verzekeringssector
(Blog door Stephan de Jong, Managing Director Technology bij IG&H) Digitale transformatie is al lange tijd een belangrijk gespreksonderwerp binnen de verzekeringssector....
VCN Hypotheken introduceert de Hypotheek AI assistent®
Volgens eigen zeggen als eerste serviceprovider komt VCN Hypotheken met een AI-tool voor hypotheken. Financieel adviseurs kunnen binnenkort gebruik maken van deze...
Generative AI in de verzekeringswereld: innovatie met de menselijke maat
"De opkomst van Generative AI (zoals ChatGPT met toegang tot eigen data) voelt als een radicale verandering binnen de verzekeringssector. Algoritmes genereren polisvoorwaarden,...
Nederlanders verwachten dat AI financiële transacties zal versnellen
Consumenten hebben hoge verwachtingen van AI in financiële dienstverlening. Zo verwacht 45 procent van de Nederlanders, waaronder 64 procent van de Gen...
Achmea gastheer zevende Positive Finance Day
Achmea is gastheer van de zevende editie van de Positive Finance Day die Dazure en de stichting MaatschapWij (voorheen New Financial Forum) op 13 maart organiseren. ...
Webinar: hoe zet je AI praktisch in als verzekeringsadviseur?
WeGroup verzorgt op 6 maart vanaf 10 uur het webinar 'Hoe zet je AI praktisch in als verzekeringsadviseur?'.Aan bod komen onder meer large language models (hoe tools...
"Financiële sector in staat AI-fraude zelf te bestrijden"
"Ik heb tot nu toe geen signalen ontvangen dat de financiële sector in Nederland op dit moment niet over de middelen en expertise beschikt om AI-fraude aan...