Overslaan naar inhoud
Nederlands
  • Er zijn geen suggesties want het zoekveld is leeg.

MTH AI- DOCUMENTATIE

Context

Move To Happiness (MTH) wenst een informatief document op te stellen om (bestaande of potentiële) klanten transparant te informeren over het AI-gebruik in het kader van de dienstverlening van MTH.

Wij verwijzen voor het ontwerp naar de bijlage bij dit document. Het ontwerp kan overgenomen worden in een document met MTH-branding.

We raden aan om de AI-documentatie in de toekomst uit te breiden met een soort van klanten FAQ in het kader van AI. In dergelijke FAQ kunnen bijvoorbeeld onderstaande vragen aan bod komen:

  • Worden onze medewerkers geprofileerd?
  • Heeft MTH toegang tot individuele gesprekken?
  • Worden AI-systemen getraind op onze data?
  • Wordt AI gebruikt voor HR-beslissingen

Bijlage

1. Doel van deze AI-documentatie

Dit document geeft een transparant en beknopt overzicht van het gebruik van artificiële intelligentie binnen de dienstverlening van Move To Happiness en in het bijzonder het Move To Happiness-platform ("MTH").

Het document is bedoeld om klanten, hun legal, privacy en securityteams te informeren in het kader van due diligence, contractuele evaluaties en compliance-controles.

Dit document beschrijft:

  • welke AI-functionaliteiten vandaag operationeel zijn;
  • welke AI-componenten zich nog in ontwikkeling bevinden;
  • hoe MTH omgaat met data, privacy, veiligheid en AI-governance;
  • welke waarborgen er momenteel bestaan, onder meer inzake menselijke tussenkomst, uitlegbaarheid en risico-beperking.

MTH ontwikkelt en gebruikt AI op een mensgerichte en gecontroleerde manier, met bijzondere aandacht voor transparantie, veiligheid, risicobeperking en governance. De AI-functionaliteiten binnen het platform zijn niet ontworpen als high-risk AI-systemen in de zin van de AI Act en beogen geen autonome of bindende besluitvorming over individuen.

Hoewel de AI Act in die zin niet rechtstreeks tot alle AI-functionaliteiten van MTH-verplichtingen oplegt, hanteert MTH bij het ontwerp en de inzet van AI bewust de onderliggende principes van de AI Act als best practice. Dit betreft onder meer transparantie tegenover gebruikers, mensgericht ontwerp, passende waarborgen, en een zorgvuldige governance rond risico’s en gebruik.

Dit document beoogt geen formele juridische kwalificatie van het platform onder de AI Act, maar biedt een feitelijk en principieel kader dat klanten toelaat het gebruik, de reikwijdte en de impact van de AI-functionaliteiten binnen MTH correct te begrijpen en te beoordelen.

Waar relevant, sluit dit document inhoudelijk aan bij de transparantievereisten voorzien in de AI Act, waaronder de beginselen die voortvloeien uit artikelen 13 en 50, zonder daarmee te impliceren dat deze bepalingen in alle gevallen rechtstreeks van toepassing zijn.

Dit document is vertrouwelijk en is in geen geval bedoeld voor verdere verspreiding door de klant.

2. AI-strategie MTH

Move To Happiness gebruikt AI als ondersteunend instrument om welzijn op schaal toegankelijk te maken voor organisaties, zonder individuele menselijke coaches te vervangen.

De AI-componenten binnen MTH zijn ontworpen volgens drie kernprincipes:

  • Mensgericht: AI ondersteunt, maar neemt geen bindende beslissingen over individuen.
  • Privacy-first: individuele interacties blijven vertrouwelijk; organisaties ontvangen uitsluitend geaggregeerde inzichten.
  • Functioneel begrensd: AI-systemen opereren binnen vooraf gedefinieerde use cases en technische guardrails.

AI wordt ingezet binnen de MTH-dienstverlening in de context van wellbeing, begeleiding en het genereren van inzichten, en niet voor autonome of bindende besluitvorming over individuen. De AI-componenten binnen het platform zijn functioneel beperkt tot ondersteuning, reflectie en preventieve begeleiding, en zijn niet ontworpen om individuele personeelsbeslissingen te nemen of af te dwingen.

Naast AI-functionaliteiten biedt het platform ook niet-AI-gedreven dashboards en rapporteringen die werken op basis van vooraf gedefinieerde indicatoren en gestructureerde data, zoals inzichten rond welzijn, aanwezigheid of engagement op individueel, team- of organisatieniveau. Deze dashboards kunnen door organisaties worden gebruikt ter ondersteuning van reflectie, coaching of bredere human performance-initiatieven, maar maken geen gebruik van AI-gedreven besluitvorming en genereren geen autonome aanbevelingen of conclusies over individuele werknemers.

Gebruik van AI-output voor individuele personeelsmaatregelen is niet voorzien en valt buiten het beoogde gebruik van het platform. Waar inzichten betrekking hebben op individuele medewerkers, gebeurt dit uitsluitend via transparante, niet-AI-gebaseerde visualisaties of indicatoren, waarbij de interpretatie en eventuele opvolging steeds bij menselijke actoren blijft.

3. Overzicht van AI-componenten

3.1. Afbakening en structuur

In dit hoofdstuk wordt een beknopt overzicht gegeven van de AI-componenten die binnen het Move To Happiness-platform worden ingezet of zich in ontwikkeling bevinden.

Per component wordt toegelicht:

  • het beoogde doel en de functionele rol binnen het platform;
  • het type interactie met gebruikers of organisaties;
  • de belangrijkste kenmerken en functionele beperkingen;
  • de voornaamste technische en organisatorische waarborgen.

Dit overzicht heeft een beschrijvend karakter en beoogt geen technische of juridische kwalificatie van de systemen, maar biedt klanten een functioneel kader om de inzet van AI binnen de MTH-dienstverlening te begrijpen.

De volgende AI-componenten worden besproken:

  • AI-buddies op gebruikersniveau, die functioneren als interactieve wellbeing-chatbots;
  • North Star Agent (Corporate strategist), die uitsluitend werkt met geaggregeerde inzichten.

3.2. AI-buddies

MTH maakt gebruik van meerdere AI-buddies die fungeren als digitale wellbeing-assistenten voor individuele eindgebruikers.

3.2.1. Algemene werking

Alle AI-buddies:

  • werken op dezelfde technische basis;
  • maken gebruik van hetzelfde onderliggende taalmodel (GPT-4.1 via Microsoft Azure, met geplande upgrades);
  • opereren binnen centrale Microsoft-guardrails en aanvullende MTH-instructies;
  • zijn duidelijk herkenbaar voor de gebruiker als AI-chatbots, conform artikel 50(1) van de AI Act.

De AI-buddies functioneren als conversationale chatbots die ondersteuning bieden bij zelfreflectie en gedragsverandering in het kader van welzijn. Zij nemen geen bindende beslissingen, formuleren geen medische diagnoses en vervangen geen professionele zorgverlening.

3.2.2. Personalisatie en differentiatie

De verschillen tussen de AI-buddies zitten niet in het AI-model zelf, maar in:

  • specifieke instructies en persona's;
  • een afgebakende kennisbasis die relevant is voor het thema van de buddy;
  • de beschikbare tools en contextuele input.

Afhankelijk van de buddy kan de AI, binnen vooraf vastgelegde grenzen, gebruikmaken van:

  • eerdere interacties met de gebruiker;
  • tijdscontext en voortgang binnen een traject;
  • door de gebruiker vrijwillig aangeleverde gegevens;
  • in bepaalde gevallen externe context zoals wearable-data of voedingsinformatie.

Deze personalisatie is functioneel en beperkt, en gebeurt uitsluitend binnen het kader van wellbeing-ondersteuning. Er vindt geen “profiling” plaats met juridische of vergelijkbaar significante effecten.

Alle AI-buddies:

  • zijn 24/7 beschikbaar;
  • zijn oordeelvrij (zie 3) en vertrouwelijk;
  • geven geen medische diagnose of therapie;
  • geven geen bindende adviezen.

De AI Personal Buddy maakt geen gebruik van subliminale, manipulatieve of misleidende technieken en exploiteert geen kwetsbaarheden van gebruikers. De gebruiker behoudt te allen tijde autonomie over zijn of haar keuzes.

3.3. North Star Agent

Naast individuele AI-buddies biedt MTH één AI-component op organisatieniveau, de North Star Agent (Corporate strategist).

3.3.1. Algemene werking

De North Star Agent:

  • werkt uitsluitend met geaggregeerde en geanonimiseerde signalen;
  • kan geen individuele output genereren of reconstrueren;
  • is technisch en organisatorisch afgescheiden van user-level AI-buddies.

3.3.2. Doel en gebruik

De North Star Agent is bedoeld om:

  • strategische wellbeing-inzichten te ondersteunen;
  • patronen en trends op organisatieniveau te signaleren;
  • input te leveren voor algemeen wellbeing-beleid en preventieve initiatieven.

De output van North Star is gericht op management-, beleids- of C-level-gebruik, en is niet geschikt en niet bedoeld voor individuele opvolging, evaluatie of personeelsbeslissingen.

3.3.3. Waarborgen

Door combinatie van:

  • aggregatie en anonimisatie;
  • technische guardrails van Microsoft;
  • strikte instructies en afgebakende datasets;
  • het ontbreken van individuele identifiers,

is individualisering of herleiding tot specifieke personen technisch uitgesloten. De North Star Agent kan geen vragen beantwoorden over individuele werknemers, noch aanbevelingen doen over aanwerving, ontslag, promotie of evaluatie.

3.4. Ondersteunende AI-tools

Naast de hierboven beschreven AI-componenten maakt MTH beperkt gebruik van ondersteunende tools zoals HumanDesign.ai.

HumanDesign.ai wordt binnen het MTH-platform gebruikt als een ondersteunende persoonlijkheids- en reflectietool, op basis van door de gebruiker zelf aangeleverde gegevens, zoals geboortedatum en geboorteplaats.

De output van deze tool biedt individuele inzichten in voorkeuren, energieprofielen en persoonlijkheidskenmerken, vergelijkbaar met andere reflectiemodellen zoals Big Five of DISC. Deze inzichten kunnen door de AI-buddies worden gebruikt als contextuele input om begeleiding en interacties beter af te stemmen op de gebruiker.

Het gebruik van HumanDesign.ai:

  • leidt niet tot autonome of bindende beslissingen;
  • wordt ingezet in een coaching- en wellbeingcontext;
  • resulteert niet in geautomatiseerde HR-beslissingen;
  • wordt niet door MTH gebruikt voor aanwerving, promotie, ontslag of disciplinaire maatregelen.

3.5. Niet-AI functionaliteiten

Het MTH-platform bevat daarnaast dashboards en rapporteringen die rule-based werken op basis van vooraf vastgelegde indicatoren, zoals absenteïsme of presenteïsme. Deze functionaliteiten:

  • maken geen gebruik van autonome AI;
  • kwalificeren niet als AI-systemen in de zin van artikel 3, lid 1, van de AI Act, aangezien zij geen inferentie verrichten en uitsluitend deterministische regels toepassen;
  • worden onderscheiden van de AI-componenten die in dit document worden beschreven.

4. Gegevensverwerking in het kader van AI

4.1. Gegevenscategorieën

Afhankelijk van het gebruik kan AI volgende categorieën verwerken:

  • tekstuele input van gebruikers;
  • contextuele wellbeing-informatie;
  • metadata (tijdstip, interactietype).

Gezondheidsgegevens worden enkel verwerkt wanneer de gebruiker hier toestemming voor geeft, bijvoorbeeld bij koppeling met wearables.

4.2. Gegevensstromen

High-level

  • Gebruiker interageert met AI via de app
  • Prompt wordt verwerkt binnen het afgebakende AI-systeem (zie ook onze lagen van controle, 1)
  • Output wordt gegenereerd en teruggegeven aan de gebruiker
  • Logging gebeurt binnen een Europees gehoste omgeving

Er vindt geen automatische doorgifte plaats van (niet-geaggregeerde) persoonsgegevens van de werknemer (gebruiker) naar diens werkgever of derden.

5. Technische en organisatorische maatregelen

5.1. AI binnen een evidence-based kader

Onze AI-componenten putten niet zomaar informatie van uit internet. Zo onderscheiden onze AI-componenten zich van AI zonder kaders (generatieve AI). Met generatieve AI, zou er immers risico zijn op inconsistente of onjuiste antwoorden, een risico op medische claims of een black box-risico.

Onze AI-componenten werken binnen een evidence-based kader waardoor we de risico’s van generatieve AI kunnen beperken. Daarmee bedoelen we dat de wijsheid van onze AI-componenten beperkt en gestuurd wordt door wetenschappelijk onderbouwde methodieken die onze experts hebben geselecteerd.

Hiervoor implementeren wij drie lagen van controle:

Laag 1

Geautoriseerde content als bron

Onze AI-componenten baseren antwoorden uitsluitend op de contentbibliotheek van MTH. Dit zijn video's, artikelen en oefeningen die door psychologen, burn-out coaches en vitaliteitsexperts zijn ontwikkeld.

 

 

 

Laag 2

Methodologische sturing

De interactie is gebaseerd op positieve psychologie waarbij de focus ligt op persoonlijkheid, veerkracht en groei, volgens de methodieken die binnen het MTH-platform centraal staan.

 

 

 

Laag 3

Filtering

Voordat een antwoord bij de gebruiker komt, checken wij of het antwoord in lijn is met de protocollen van MTH. Hiermee garanderen we dat elk antwoord evidence-based is en strikt binnen de preventieve kaders van het MTH-platform blijft.

 

5.2. AI-technologie

MTH zet AI in als een gecontroleerd instrument om welzijn te bevorderen, waarbij privacy en technische integriteit de hoogste prioriteit hebben. Wij maken hierbij gebruik van grote taalmodellen (LLM's), waaronder:

  • OpenAI GPT-4.1 via Europese hosting: wij maken gebruik van Microsoft Azure-infrastructuur met hosting binnen de Europese Economische Ruimte (EER);
  • Gespecialiseerde modellen: voor specifieke taken worden aanvullende algoritmes ingezet die geoptimaliseerd zijn voor snelheid en accuratesse.

Belangrijke waarborgen:

  • Gebruikersdata worden niet gebruikt om modellen van OpenAI of Microsoft te trainen;
  • Prompts worden functioneel gebruikt;
  • Elke AI-agent kan enkel vooraf gedefinieerde functies aanroepen of vooraf gedefinieerde acties uitvoeren binnen de veilige omgeving van het platform;
  • Geen autonome query-generatie: om veiligheidsrisico's uit te sluiten, genereert de AI nooit zelfstandig queries op MTH-kernsystemen.

Bewaking en verantwoording:

  • Toepassing van Microsoft AI Guardrails om ongepaste inhoud, bias of schadelijke output proactief te filteren.
  • Monitoring: alle AI-interacties worden gelogd voor veiligheids- en kwaliteitsdoeleinden.
  • Menselijke validatie: AI-output is primair bedoeld voor in-app begeleiding en interne inzichten, en niet voor publieke verspreiding of externe communicatie zonder menselijke beoordeling.

5.3. Toezicht en waarborgen

MTH past een combinatie toe van technische, procedurele en organisatorische maatregelen om risico’s verbonden aan het gebruik van AI te beheersen. Deze waarborgen zijn gericht op het ondersteunen van gebruikers, het voorkomen van ongepaste of schadelijke output en het waarborgen van veiligheid, zonder dat individuele AI-interacties continu door mensen worden gemonitord.

5.3.1. Menselijke sturing en toezicht

De AI-functionaliteiten binnen het MTH-platform functioneren niet autonoom, maar binnen een door mensen ontworpen en beheerd kader. De CTO en het productteam bepalen de instructies, kennisbronnen, toegelaten functionaliteiten en guardrails van de AI-systemen en zien toe op hun correcte werking. AI-output wordt gegenereerd binnen vooraf vastgelegde parameters en use cases, waardoor de reikwijdte en impact van de systemen functioneel begrensd blijft.

Er is geen sprake van “realtime” menselijke validatie van individuele antwoorden. Wel is sprake van menselijke sturing op systeemniveau, waarbij ontwerpkeuzes, updates en aanpassingen aan de AI-componenten onder menselijke verantwoordelijkheid vallen.

5.3.2. Procedurele tussenkomst en doorverwijzing

Voor situaties waarin AI-signalen wijzen op mogelijke ernstige mentale of medische problematiek, hanteert MTH per AI-buddy een vast doorverwijzingsprotocol. Deze protocollen bepalen wanneer een AI-systeem zijn rol als digitale coach moet begrenzen en de gebruiker actief moet aanmoedigen om aanvullende of professionele ondersteuning te zoeken.

Bijvoorbeeld wanneer signalen wijzen op ernstige depressieve klachten, suïcidaliteit, trauma of andere red flags, blijft de interactie niet beperkt tot coaching binnen het AI-systeem. In dergelijke gevallen wordt de gebruiker expliciet gewezen op het belang van professionele hulp, zoals contact met een huisarts, psycholoog of andere geschikte zorgverlener. De AI neemt hierbij geen diagnostische of therapeutische rol op zich en vermijdt verdere inhoudelijke begeleiding die professionele zorg zou kunnen vervangen.

Deze aanpak zorgt ervoor dat veiligheid primeert en dat AI-systemen niet worden ingezet buiten hun preventieve en ondersteunende doelstelling.

5.3.3. Uitlegbaarheid en bias-beperking

De AI-functionaliteiten zijn functioneel begrensd en ontworpen om begrijpelijke, niet-technische output te genereren. Er wordt geen gebruik gemaakt van black-box beslissingslogica richting klanten of organisaties. De systemen voeren geen “profiling” uit met juridische of vergelijkbaar significante effecten en nemen geen beslissingen die rechten of verplichtingen van gebruikers beïnvloeden.

Door combinatie van ontwerpkeuzes, guardrails, continue monitoring op systeemniveau en vaste doorverwijsprocedures beperkt MTH het risico op ongewenste bias, overschrijding van toepassingscontexten en onbedoelde impact op gebruikers.

5.4. Beveiligingsmaatregelen

MTH past passende beveiligingsmaatregelen toe, waaronder:

  • rol- en toegangsbeheer;
  • logging van de antwoorden van de AI via Microsoft Foundry;
  • scheiding tussen individuele en organisatorische data;
  • Europese hosting.

6. AI-governance

6.1. Veilig en bewust omgaan met AI

Wij borgen de veiligheid van onze AI-functionaliteiten door ze op te nemen in het centrale MTH security-framework. Wij zorgen voor de achterkant, zodat u zich kunt focussen op het welzijn van uw medewerkers.

MTH voorziet interne procedures en opleiding voor medewerkers die betrokken zijn bij de ontwikkeling, ondersteuning en het beheer van AI-functionaliteiten, met aandacht voor verantwoordelijk gebruik, risicobewustzijn en functionele grenzen van AI-systemen.

Hoewel de AI-functionaliteiten van MTH niet kwalificeren als high-risk AI-systemen en de bijbehorende verplichtingen inzake AI-geletterdheid uit de AI Act formeel niet van toepassing zijn, hanteert MTH vrijwillig principes van transparantie en bewust gebruik. Klanten en beheerders ontvangen daarom duidelijke richtlijnen over de aard en rol van AI-functionaliteiten binnen het platform, zodat deze op een geïnformeerde en passende manier worden ingezet.

6.2. Innovatie met waarborgen

MTH streeft naar continue verbetering van haar welzijnsplatform. Voor elke nieuwe AI-toepassing hanteren wij een “Safety-by-Design” proces voordat deze beschikbaar wordt gesteld:

Stap 1

Risicobeoordeling

Wij voeren standaard een voorafgaande risicobeoordeling uit om ethische en technische veiligheid te garanderen.

 

 

 

Stap 2

DPIA-toetsing

Indien de verwerking daarom vraagt, voeren wij een gegevensbeschermingseffectbeoordeling (DPIA) uit om uw data optimaal te beschermen.

 

 

 

Stap 3

Compliance

Elke nieuwe feature wordt getoetst aan de meest actuele regelgeving, waaronder de EU AI Act.

 

 

 

Stap 4

Transparantie

Wij informeren u proactief over nieuwe functies, de werking ervan en hoe deze bijdragen aan het welzijn van uw medewerkers.

 

7. Vragen

Heeft u vragen in verband met dit document of ons gebruik van AI? Neem dan contact op met Kenneth Van Daele (founder en CEO) via het email adres kenneth.van.daele@movetohappiness.com