Meer dan een stochastische papega-ai

Papega-ai

(Jack Vos, Onesurance, in VVP 4, 2023) De opmars van Artificial Intelligence (AI) lijkt middels de ChatGPT hype ook de verzekeringssector bereikt te hebben en de discussie over de effecten ervan is allesbehalve zwart-wit. De vraag is hoe we een evenwicht kunnen vinden tussen de positieve en negatieve aspecten van de opkomst van ai, want in geen enkele sector is deze balans zo cruciaal als in de verzekeringswereld.

Om te beginnen is het concept van kunstmatige intelligentie bepaald niet nieuw. De term zelf werd voor het eerst gebruikt tijdens de ‘Dartmouth Workshop’ in 1956, waar wetenschappers bij elkaar kwamen om te bespreken hoe machines intelligent gedrag zouden kunnen vertonen. Sinds die tijd kunnen we drie belangrijke fases onderscheiden in de ontwikkeling van AI binnen het verzekeringslandschap:

• Rule-based systemen (1960-1990). In de beginjaren van AI gebruikten deze systemen alleen handmatig ingevoerde regels om simpele beslissingen te nemen op basis van specifieke input. Bijvoorbeeld, accepteren op basis van simpele vooraf gedefinieerde regels. Deze systemen waren nog veel te beperkt om complexe beslissingen te nemen.

• Statistische modellering en data-analyse (1990-2010). Omdat computers steeds sneller werden en analyse software steeds intelligenter, konden Machine Learning modellen worden ingezet om patronen en trends in grote hoeveelheden verzekeringsdata te ontdekken. Dit hielp met name bij risicobeoordeling en fraudeopsporing.

• Machine Learning en Predictive Analytics (2010-heden). Met de opkomst van meer geavanceerde Machine Learning technieken, zoals neurale netwerken en deep learning , is men in staat gebleken om nog complexere analyses uit te voeren. Dit omvat het voorspellen van klantgedrag, het bepalen van tarieven op basis van individuele kenmerken en het detecteren van frauduleuze activiteiten met een hogere precisie. Ook wordt AI gebruikt voor het verbeteren van klantbediening met chatbots, virtuele assistenten en geautomatiseerde interacties.

En nu is er dus sinds november 2022 Chat-GPT, waarin Microsoft tien miljard euro wil investeren. Dit is een Large Language Model (LLM) dat steeds het volgende woordje in een tekst voorspelt en zo menselijke taal nabootst. Vooral onder doorgewinterde data experts die jarenlang hebben gewerkt aan het verfijnen van algoritmes en het doorgronden van big data, heeft de recente AI-hype veroorzaakt door ChatGPT een mengeling van opwinding en bezorgdheid teweeggebracht. Twee tweets van kopstukken uit het land van AI vatten de tegenstelling tussen de positieve en negatieve aspecten goed samen.

De positieve kant

Tweet 1 is van de bekende venture capitalist Marc Andreessen, in januari 2023: “We are just entering an AIpowered golden age of writing, art, music, software, and science. It’s going to be glorious. World historical.”

De opwinding rond AI is zeker ook voor de verzekeringssector terecht, want het heeft nieuwe mogelijkheden geïntroduceerd die ooit ondenkbaar leken. AI belooft efficiëntie en nauwkeurigheid op een nieuw niveau. AI kan zeer grote hoeveelheden data analyseren en inzichten creëren rondom risicobeoordeling, claimhandling of klantbediening hetgeen voor menselijke beoordelaars nooit mogelijk zou zijn. De voordelen van AI zijn dus simpelweg té aantrekkelijk om te negeren en dat is de reden dat steeds meer beslissers AI op de agenda zetten. Het stelt verzekeringsbedrijven in staat om concurrentievoordelen te behalen, de klantervaring te verbeteren én tegelijkertijd kosten te verlagen. Kortom: een unieke kans om voorop te lopen in een traditionele branche die onderhevig is aan verandering.

De negatieve kant

Het contrast met tweet 2 is groot: “ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. It’s a mistake to be relying on it for anything important right now. (…)”

De auteur van deze tweet is Sam Altman, hij is de grondlegger en CEO van OpenAI’s ChatGPT zelf. Heeft u ooit een CEO over zijn eigen product horen zeggen dat het vooralsnog goed is in het creëren van misplaatste grootsheid ? De bezorgdheid is overigens terecht, want overtuigingskracht is immers de belangrijkste factor om foutieve informatie zijn verwoestende werk te laten doen.

De overtuigingskracht van ChatGPT wordt wat dat betreft overschat. Dit betekent dat iedereen die professioneel op een of andere manier met waarheid(svinding) bezig is, hier alert op moet zijn, want met de juiste vragen kan er uiterst geloofwaardige en overtuigende onzin uit komen.

Volgens professor Terrence Seinowski, auteur van De Deep Learning-revolutie, weerspiegelen taalmodellen daarbij ook nog eens de intelligentie en diversiteit van hun interviewer. Sejnowski vroeg bijvoorbeeld aan ChatGPT-3: “Wat is het wereldrecord wandelen over

‘AI is net als een papegaai die woorden herhaalt zonder hun betekenis te kennen’

 

het Engelse Kanaal?” waarop GPT-3 antwoordde: “Het wereldrecord wandelen over het Engelse Kanaal is 18 uur en 33 minuten” . De waarheid, dat men niet over het Engelse Kanaal kan lopen, werd gemakkelijk verbogen door GPT-3 om Sejnowski’s vraag weer te geven. De coherentie van het antwoord van GPT-3 is volledig afhankelijk van de coherentie van de vraag die het ontvangt. Plotseling is het voor GPT-3 mogelijk om over water te lopen, allemaal omdat de interviewer het werkwoord ‘lopen’ gebruikte in plaats van ‘zwemmen’.

Er is een treffende analogie die de nadelen van AI illustreert: de stochastische papegaai. Stochastisch betekent ‘willekeurig of op toeval gebaseerd’, verwijzend naar processen waarbij uitkomsten niet volledig voorspelbaar zijn. AI, vooral in de vorm van Generative AI zoals ChatGPT, fungeert in feite als een herhalend mechanisme zonder volledig begrip. Net zoals een papegaai woorden kan herhalen zonder hun betekenis te kennen, kan AI (tekst)patronen reproduceren zonder het vermogen om de onderliggende logica te begrijpen. Dit is zorgwekkend, vooral wanneer we denken aan beslissingen met grote gevolgen, zoals acceptatie van risico’s of het beoordelen van verzekeringsclaims. Als AI wordt ingezet om deze beslissingen te nemen zonder een grondig begrip van de context , en zonder menselijke interventie, de zogenaamde human in the loop , kunnen er onbedoeld fouten optreden. Deze inherente onvoorspelbaarheid kan leiden tot klantontevredenheid, ethische kwesties en uiteindelijk een ondermijning van het vertrouwen in de verzekeringsindustrie. Tel daarbij de complexiteit van implementatie van AI en zorgen over privacy en security op en je begrijpt dat sommige beslissers bij verzekeringsbedrijven terughoudend zijn om vol in AI te investeren.

Belangrijke rol specifieke ai

De hevige discussie over AI lijkt dus voornamelijk te gaan over Generative AI, waarvan ChatGPT het bekendste voorbeeld is. Generative AI verwijst naar een subset van kunstmatige intelligentie waarbij algoritmen worden gebruikt om nieuwe, originele en creatieve output te genereren . Het onderscheid tussen Generative AI en Specifieke AI wordt in de verzekeringssector steeds relevanter. Specifieke AI is gericht op het oplossen van specifieke problemen of het uitvoeren van specifieke taken. De belangrijkste toepassing van Specifieke AI in de verzekeringsbranche is sinds jaar en dag Predictive analytics. Hiermee kunnen op basis van historische gegevens op een betrouwbare wijze, wiskundig onderbouwd, zeer nauwkeurige voorspellingen worden gedaan, bijvoorbeeld voor risico-inschatting, combined ratio ontwikkeling, claimhoogte of meest effectieve klantbediening. Betrouwbaarheid en nauwkeurigheid zijn typisch kwaliteiten die in de verzekeringsbranche gevraagd worden.

Specifieke AI is dus ook geen ‘hype’ en is in de laatste tien jaar meer en meer succesvol toegepast, met name door de Data Masters in de markt. Data Masters zijn bedrijven die hun resource data optimaal weten te benutten onder andere door inzet van data science en AI.

Naast betrouwbaarheid en nauwkeurigheid is een groot voordeel van de Specifieke AI systemen dat het de ontwikkelaars in staat stelt om de transparantie en eerlijkheid van de algoritmes nauwkeurig te controleren en aan te passen. Zo kunnen toepassingen ontworpen en gekalibreerd worden om te voldoen aan de ethische datanormen die door het Verbond van Verzekeraars worden gesteld. Vooralsnog is dit, zelfs volgens de CEO van ChatGPT zelf, voor Generative AI toepassingen heel uitdagend.

Balans cruciaal voor verzekeringssector

Bottom-line gaat het hier over de vraag: kunnen we op AI vertrouwen of (nog) niet? Een bekende definitie van vertrouwen is: “het geloof in een goede naam en eerlijkheid”. Het Verbond van Verzekeraars heeft niet voor niets ethische datakaders opgesteld om ervoor te zorgen dat data gedreven verzekeringstoepassingen eerlijk en respectvol zijn. Het naleven van deze kaders moet er toe leiden dat de inzet van AI bijvoorbeeld niet leidt tot discriminatie. Niemand wil een tweede ‘toeslagen affaire’ die de goede naam van het verzekeringsbedrijf ernstig zou kunnen schaden.

Dit brengt een extra uitdaging met zich mee, vooral omdat AI in staat is om complexe patronen te ontdekken die voor het menselijk oog onzichtbaar zijn. Het vermogen om deze patronen te verklaren en ethische normen te handhaven, is essentieel voor het behoud van vertrouwen in de sector.

Jack Vos: ‘Specifieke AI is geen hype.’

Hier ligt een belangrijke taak en verantwoordelijkheid voor de ervaren data experts en AI-strategen uit onze branche. Met relevante kennis en ervaring over AI en een grondig begrip van de verzekeringscontext, kunnen zij de balans bewaken tussen technologische innovatie en ethische overwegingen. We moeten niet alleen kijken naar wat AI voor ons kan doen, maar ook naar wat de menselijke experts kunnen bijdragen aan een duurzame en evenwichtige toekomst. Bij AI gaat het dus niet alleen om innovatie en meer efficiëntie, maar ook om het behoud van de menselijke factor en het vertrouwen dat zo cruciaal is in onze branche. Het vinden van deze balans is een uitdaging, maar ook een verplichting die we serieus moeten nemen.

 

The key to success

Volgens een onderzoek van Cap Gemini dat recent gehouden werd onder 204 verzekeraars wereldwijd, kan slechts achttien procent van de verzekeraars zich Data Master noemen. Meer dan 70 procent van de verzekeraars behoort nog tot de Data Laggards . De verschillen zijn stuitend: de omzet per FTE is bij een Data Master 175 procent hoger en ze zijn 63 procent winstgevender dan Data Laggards . Initiatieven van Data Masters rondom data science en AI leiden in meer dan 95 procent van de gevallen tot een hogere NPS, een verbeterde combined ratio en toename van premie-inkomsten.

 

Zelf aan de slag met de koat checklist

KOAT staat voor Kwaliteit Onbemenste Advies- en Transactietoepassingen. ‘Onbemenste toepassingen’ blijft een mooi woord voor slimme technologie die in staat is taken te vervangen, niet mensen. Toenemend gebruik van zulke geautomatiseerde toepassingen in de financiële sector, in combinatie met nieuwe (Europese) regelgeving, maken kwaliteitsbewaking van onbemenste toepassingen steeds belangrijker. SIVI heeft met het Platform Onbemenste Toepassingen, waarin een kennisbank en een checklist zijn opgenomen, een tool ontwikkeld voor alle partijen die onbemenste toepassingen ontwikkelen en gebruiken. Met een brede vertegenwoordiging in de Adviescommissie Kwaliteit Onbemenste Toepassingen toont de sector haar commitment aan dit platform. Kijk op www.sivi.org.

 

 

Reactie toevoegen

 
Meer over
Webinar: hoe zet je AI praktisch in als verzekeringsadviseur?

Webinar: hoe zet je AI praktisch in als verzekeringsadviseur?

WeGroup verzorgt op 6 maart vanaf 10 uur het webinar 'Hoe zet je AI praktisch in als verzekeringsadviseur?'.Aan bod komen onder meer large language models (hoe tools...

Verantwoorde AI in de Adviespraktijk

Verantwoorde AI in de Adviespraktijk

(Ken je vak! VVP 4-5 2024) In dit vijfde deel van de serie ‘AI in de Adviespraktijk’ deelt Dennie van den Biggelaar, CTO van Onesurance.ai, inzichten...

Ethische AI blijft mensenwerk

Ethische AI blijft mensenwerk

(Robert Enters, First Day Advisory Group, in VVP-special Business Innovation 2024) Elke dag wordt er wel een nieuw AI-model gelanceerd. De mogelijkheden van AI...

Ken je vak! AI en de grenzen van de AVG

Ken je vak! AI en de grenzen van de AVG

(Christel van Bommel-Versluijs, adviseur Legal & Compliance bij BrandMR, in Ken je vak!, VVP 4-2024) De opkomst van kunstmatige intelligentie (AI) in de financiële...

"Helft Nederlanders vertrouwt juridisch advies van AI"

"Helft Nederlanders vertrouwt juridisch advies van AI"

Kunnen AI-tools goed juridisch advies geven? Bijna de helft van de Nederlanders heeft er vertrouwen in dat AI-tools een goed advies kunnen geven, zo blijkt uit een ...

Schaken of Staken?

Schaken of Staken?

(Jack Vos, Onesurance, in VVP-special Business Innovation 2024) In 1997 werd de wereld van technologie en menselijke prestatie op zijn kop gezet toen Garry Kasparov,...

CuriosityVC strategisch investeerder Onesurance

CuriosityVC strategisch investeerder Onesurance

Investeringsfonds CuriosityVC is strategische investeerder geworden bij Onesurance. Met deze investering zegt Onesurance klaar te zijn om groeiversnelling voort...

De perfecte prompt

De perfecte prompt

(Justin Schlee, ANVA, in VVP-special Business Innovation 2024) De afgelopen periode zie ik regelmatig artikelen voorbijkomen waarin ChatGPT wordt vergeleken met...

Finale VVP Advies Award 2024 in beeld

Finale VVP Advies Award 2024 in beeld

Bekijk de beeldimpressie van Jeffrey Korte van de zinderende finale van de VVP Advies Award 2024 inde belevingsstudio’s van First Impression in Tilburg. [object...

De perfecte prompt

De perfecte prompt

(Opinie Justin Schlee, ANVA, in VVP 4-2024) De afgelopen periode zie ik regelmatig artikelen voorbijkomen waarin ChatGPT wordt vergeleken met een specialist, om...