Nieuwe gedragsprincipes moeten jongeren beter beschermen zonder hen te betuttelen
Voor ondernemers, ontwikkelaars en onderwijsorganisaties die met AI werken, verandert het speelveld opnieuw. OpenAI past de spelregels van ChatGPT aan voor jongeren tussen 13 en 17 jaar. Niet cosmetisch, maar fundamenteel. De inzet: veiligheid eerst, ook als dat botst met gebruiksgemak of commerciële ambities.
Veiligheid vóór alles, ook als het schuurt
OpenAI heeft een update aangekondigd van zijn Model Spec, het interne kompas dat bepaalt hoe AI zich gedraagt in gevoelige situaties. Nieuw daarin zijn expliciete U18-principes, gericht op tieners. Die principes gelden bovenop de bestaande regels voor volwassenen, maar leggen de lat hoger zodra het om minderjarigen gaat.
De kern is duidelijk: tieners zijn geen kleine volwassenen. Hun oordeelsvermogen, impulscontrole en sociale ontwikkeling zitten nog in volle opbouw. Dat vraagt volgens OpenAI om extra voorzorg, vooral wanneer gesprekken afglijden naar risicothema’s zoals zelfbeschadiging, eetstoornissen, gevaarlijk gedrag of expliciete inhoud.
Vier duidelijke uitgangspunten
De nieuwe richtlijnen rusten op vier pijlers. Eerst en vooral: veiligheid primeert altijd. Daarnaast wil OpenAI jongeren actief richting de echte wereld duwen, met nadruk op contact met ouders, leerkrachten of andere vertrouwenspersonen. Tegelijk belooft het bedrijf om tieners niet neerbuigend toe te spreken, maar hen ook niet als volwassenen te behandelen. Transparantie vormt de vierde pijler: duidelijk zeggen wat kan en wat niet.
Volgens OpenAI moeten die principes voorkomen dat AI een vervangmiddel wordt voor menselijk contact. De technologie mag ondersteunen, niet isoleren.
Meer vangrails bij risicogesprekken
Concreet betekent dit dat ChatGPT bij tieners sneller zal afremmen. In gesprekken over zelfdoding, gevaarlijke uitdagingen, drugs of seksualiteit zal het model voorzichtiger formuleren, alternatieven aanbieden en aansturen op hulp buiten het scherm. Bij acute risico’s verwijst ChatGPT expliciet naar hulpdiensten of crisislijnen.
Dat gebeurt niet op buikgevoel, maar binnen vaste gedragskaders. OpenAI benadrukt dat die aanpak gericht is op preventie en vroege interventie, niet op controle achteraf.
Onderbouwd met externe expertise
Bij de ontwikkeling van de U18-principes klopte OpenAI aan bij externe experts. Onder meer de American Psychological Association (APA) gaf feedback op een vroege versie. Die organisatie benadrukt dat jongeren wel baat kunnen hebben bij AI, maar alleen als dat gebruik ingebed is in echte relaties en begeleid wordt door volwassenen.
Die wetenschappelijke inbreng weegt zwaar. OpenAI verwijst expliciet naar ontwikkelingspsychologie als fundament voor de nieuwe regels.
Parental controls en leeftijdsherkenning
De update staat niet op zichzelf. Ze past in een bredere strategie rond tienerveiligheid. Zo breidde OpenAI bestaande ouderlijke controles uit naar nieuwe toepassingen zoals groepschats, de Atlas-browser en de Sora-app. Ouders krijgen meer zicht en meer sturing.
Opvallend is ook de volgende stap: een leeftijdsvoorspellingsmodel. Daarmee wil OpenAI automatisch strengere regels toepassen wanneer een account vermoedelijk van een minderjarige is. Bij twijfel kiest het systeem standaard voor de U18-ervaring. Volwassenen zullen hun leeftijd actief moeten bevestigen om ruimere toegang te krijgen.
Wat dit betekent voor wie met AI werkt
Voor bedrijven en organisaties die ChatGPT inzetten in onderwijs, media of klantcommunicatie is dit geen detail. De manier waarop AI antwoordt, wordt contextgevoeliger en leeftijdsafhankelijk. Dat vraagt alertheid: workflows, contentstrategieën en verwachtingen moeten mee evolueren.
De boodschap van OpenAI is helder. AI groeit mee met zijn gebruikers, maar draagt ook verantwoordelijkheid. Zeker wanneer die gebruikers nog onderweg zijn naar volwassenheid.
Heb je tips, praktijkervaringen of signalen over hoe jongeren AI gebruiken? Laat het ons weten.




