Laatst zat ik met een vriend koffie te drinken. Hij liet me trots zijn nieuwe Samsung Galaxy S24 zien. Prachtig scherm, die nieuwe AI-functies, je kent het wel. We kletsen er wat over en gaan ieder ons weegs. Een uurtje later zit ik thuis op de bank, ik open mijn tijdlijn en ja hoor: de eerste drie advertenties gaan over... precies die Samsung S24.
Dan bekruipt je toch een onheimelijk gevoel. Luistert mijn telefoon mee? Is dit toeval? Of weten ze gewoon te veel van me?
In de digitale wereld gebeurt dit constant. We willen allemaal relevante aanbiedingen, maar zodra het voelt alsof er over onze schouder wordt meegekeken, haakt ons brein af. Dat is de paradox van moderne CX: we kunnen technisch bijna alles voorspellen, maar mogen we dat ook?
Technologie kan de klantervaring verrijken, maar zonder ethisch kompas wordt het al snel 'creepy'. Onderzoeks- en adviesbureau Gartner waarschuwde al eerder dat merken die personalisatie inzetten zonder duidelijk nut voor de klant, het risico lopen dat consumenten afhaken. Sterker nog: ruim de helft van de consumenten overweegt zich uit te schrijven of te 'ontvolgen' als communicatie te indringend voelt. Het bewijst dat data zonder empathie niet leidt tot verkoop, maar tot wantrouwen.
Vaak wordt ethiek gezien als een lijstje regels dat innovatie vertraagt. "We mogen dit niet vanwege privacy." Bij GX zien we dat anders. Ethisch omgaan met data is juist een concurrentievoordeel.
Klanten zijn niet gek. Ze weten dat hun data waarde heeft. Ze delen die data graag, maar alleen als ze begrijpen wat er mee gebeurt én als ze erop vertrouwen dat het in hun belang wordt gebruikt. Transparantie leidt tot vertrouwen, en vertrouwen leidt tot loyaliteit. Een "black box" die beslissingen neemt, accepteert niemand meer.
Laten we kijken naar een sector waar eerlijkheid cruciaal is: financiële dienstverlening.
Een zzp'er vraagt een hypotheek aan. Een AI-model analyseert zijn data: wisselend inkomen, recente grote uitgaven (investeringen) en de postcode van zijn bedrijf. Het algoritme ziet 'Risico' en stuurt binnen 3 seconden een automatische afwijzing. Geen uitleg, geen beroep mogelijk. Het gevolg: De klant voelt zich onrechtvaardig behandeld en vertrekt naar de concurrent. Het model heeft misschien technisch gelijk op basis van statistiek, maar mist het verhaal achter de cijfers.
Hetzelfde scenario, maar nu is het proces ethisch ingericht. De AI doet de voorzet en signaleert het risico, maar wijst niet autonoom af. Het systeem markeert de aanvraag voor een menselijke check. Een adviseur ziet de data, maar kijkt ook naar de context: de 'grote uitgaven' waren noodzakelijke investeringen voor groei. De adviseur keurt de aanvraag goed of belt de klant voor toelichting. Het gevolg: De klant krijgt een eerlijke kans. Zelfs als het antwoord 'nee' is, kan de adviseur uitleggen waarom. Dat behoudt de relatie.
Hoe voorkom je dat je onbedoeld discrimineert of grenzen overschrijdt? Door Ethics by design toe te passen. Dat betekent dat je ethische principes niet achteraf toetst, maar inbouwt in je proces.
In de praktijk betekent dit:
Technologie kent geen moraal, mensen wel. Daarom blijft de human in the loop onmisbaar bij gevoelige beslissingen. De machine levert de waarschijnlijkheid, de mens bewaakt de waarden.
Organisaties die dit goed doen, merken dat klanten meer bereid zijn data te delen. Ze weten immers: hier wordt zorgvuldig mee omgegaan. Zo wordt ethiek de basis voor duurzame groei.
We hebben nu de basis (Human in the loop), de techniek (Data & Omnichannel) en de spelregels (Ethiek) staan. Maar er is een nieuwe speler op het veld die alles op zijn kop zet: Generative AI. Technologie die niet alleen voorspelt, maar ook creëert. Hoe zet je die kracht in zonder dat je merkstem verandert in een robot?
Dat lees je in de volgende blog: Generative AI: Innovatie met merkgevoel en empathie.