Wat dit betekent als je op AI-infrastructuur bouwt
Ik schrijf dit niet als waarschuwing tegen het gebruik van AI-tools. We gebruiken ze elke dag bij Studio Hyra. De praktische waarde is reëel en de systemen worden steeds beter.
Maar als je organisatie verplichtingen aangaat op basis van de aanname dat de AI-systemen waarop je vertrouwt, beheerd worden zoals hun publieke documentatie beschrijft, dan is Murati's getuigenis een reden om die aanname bij te stellen.
Een paar concrete dingen volgen daaruit.
Vendor veiligheidsdocumentatie is niet governance-bewijs. Een gebruiksbeleid, een responsible AI framework, een deployment checklist: dit zijn signalen, geen bewijs. De vraag is niet wat het document zegt. De vraag is welk proces werkelijk plaatsvindt wanneer het productteam iets wil deployen en het safety team is niet zeker.
De kloof tussen gestelde en operationele veiligheidscultuur is waarschijnlijk groter dan je denkt. Dit is niet uniek voor AI. Het is waar in farmacie, in financiële diensten, in luchtvaart voordat de Boeing MAX-rampen een verandering dwongen. De AI-industrie is jonger en beweegt sneller. De kloof is waarschijnlijk breder.
Regeldruk zal uiteindelijk openbaarmaking forceren. De EU AI Act vereist documentatie van risicobeoordelingsprocessen. Rechtszaken, zoals we zien, genereren getuigenis onder ede. Naarmate deze mechanismen rijpen, zal het verschil tussen wat labs over hun veiligheidscultuur zeggen en wat werkelijk plaats vindt, moeilijker te handhaven zijn. Organisaties die afhankelijkheden op AI-infrastructuur hebben opgebouwd, moeten nu nadenken over hoe die zichtbaarheid eruit zal zien wanneer die aankomt.
Alles hieruit volgen betekent niet dat je ermee stopt AI te gebruiken. Het betekent dat je vendor veiligheidsclaims niet meer als vervanging voor je eigen oordeel over risico gebruikt.