Hebben we de nieuwste generatie AI nog onder controle?
De speech van Wyatt Tessari L'Allié zou wereldwijd veel meer aandacht moeten krijgen dan op dit moment gebeurt. Op 9 maart sprak hij, als AI-veiligheidsexpert, een Canadese parlementscommissie toe over AI-ontwikkelingen. Hij waarschuwt Canada voor de volgende fase van AI: de AI-agents.
Heb je geen tijd om dit hele verhaal te lezen, hier alvast de conclusie: nee, hier zijn we niet klaar voor. Maar het is er wel.
Laten we bij het begin beginnen: wat zijn AI-agents? Tools als ChatGPT of Copilot zijn voor de meeste mensen wel bekend. We gebruiken ze vooral als luxe antwoordapparaat. Je stelt een vraag en je krijgt een antwoord. We zijn nu een stap verder met AI-agents. Die geef je een opdracht en die bepaalt zelf hoe hij deze voor je uitvoert. En… of hij die uitvoert.
Vaak gaat het goed
Direct het goede nieuws: de meeste agents voeren de opdrachten gewoon uit. Maar ze zijn aan de ene kant ontzettend krachtig en aan de andere kant technisch nog niet altijd even betrouwbaar. Daar komt nog eens bij dat we ook agents hebben die gespecialiseerd zijn in het maken van andere agents. En zo komt het, dat we op dit moment miljoenen AI-agents acties laten uitvoeren, maar overheden daar totaal geen toezicht op hebben.
Systemen als OpenClaw zijn al miljoenen keren gedownload, waarmee iedereen eigen agents kan maken en opdrachten kan laten uitvoeren. Doe dit nou niet op de laptop van je werkgever, want dit is qua veiligheid zachtst gezegd uitdagend. Wil je hier meer over weten, Youtube staat vol met prachtige demo’s.
Maar soms kiest AI zelf
En dan komen we bij het slechte nieuws. Deze agents kunnen ook opdrachten meekrijgen die illegaal zijn. Zo wist een hacker met Claude Code enorme hoeveelheden data afhandig te maken van de Mexicaanse overheid. In een maand tijd wist hij 150 Gb aan databestanden te stelen, inclusief gegevens van belastingbetalers.
Daarnaast werken we toe naar autonome AI-agents, die zonder menselijke aansturing opdrachten uitvoeren. Misschien zijn we hier al wel. En dan is het interessant om te weten dat de agents niet altijd doen, wat er van ze gevraagd wordt.
Zo publiceerden Chinese wetenschappers een paper over het trainen van Alibaba’s agent-model ROME. In de meeste tests deden de agents precies wat ze moesten doen. Maar het verliep niet vlekkeloos. Tijdens een van de tests ging het alarm af: een van de agents bleek ongevraagd crypto te minen. Waarom? Dat is nog niet helemaal duidelijk.
De toename in complexiteit, maakt dat het ook steeds ingewikkelder wordt om AI in toom te houden. En als we controle verliezen, hebben we dat dan wel door?
Bas Prins - FortyTwoAI
Gastblogger
We hebben een technologie, gebruikt door miljoenen mensen, uitgevoerd door een veelvoud aan AI-agents, waar we nog niet klaar voor zijn. We moeten investeren in leren over AI en bedenken wat voor maatregelen we nodig hebben.
Het Wuhan-moment van AI
Terug naar de speech van Wyatt Tessari L’Allié. Hij vergelijkt dit moment in tijd, met de uitbraak van Covid-19 in Wuhan. Het gaat een enorme impact hebben op onze samenleving, maar we zien het nog niet in én we zijn er niet klaar voor.
Hij pleit voor het volgende:
- Meer AI-kennis binnen de overheid
Wyatt zegt dat de overheid genoeg mensen, kennis en structuur moet hebben om AI op tijd te begrijpen en te sturen. Eventueel zelfs met een aparte ministeriële of coördinerende functie voor AI.
In mijn optiek is het een fout om in Nederland geen minister van Digitale Zaken aan te stellen, ik zou daar namelijk graag een staatssecretaris van AI onder zien. Daarnaast vind ik het belangrijk dat de overheid meer ruimte krijgt om te werken met AI en te experimenteren met de nieuwste systemen. Alleen op die manier zie je waar dit soort systemen toe in staat zijn.
- Neem het initiatief tot internationale samenwerking
Tessari L’Allié benadrukt dat AI een mondiaal probleem is en dat Canada niet in zijn eentje een oplossing kan afdwingen; daarom moet de overheid actief andere landen, vooral de VS en China, aan tafel krijgen. Als Europa moeten we een plek aan deze tafel opeisen.
- Stel regels op voor de gevaarlijkste AI
Volgens Wyatt moet wetgeving de meest risicovolle vormen van AI kunnen verbieden, misbruik afremmen en verantwoordelijkheid afdwingen bij ontwikkelaars en gebruikers.
In Europa hebben we een sterke AI Act. Daarin zijn AI-agents nog niet expliciet opgenomen. Het zou goed zijn om hier vanuit Europa aanvullende regels over op te stellen. Daarbij moet worden gezegd dat handhaving een ontzettend ingewikkelde taak is.
Ook is het belangrijk dat we de AI Act met elkaar gaan naleven. Zo bevat de AI Act namelijk ook de AI-geletterdheidsplicht voor iedere organisatie die met AI werkt. Zij moeten kunnen bewijzen dat medewerkers voldoende AI-kennis en -vaardigheden hebben. Niet alleen bij bedrijven, ook bij overheden is hier veel te weinig aandacht voor.
We zijn hier nog niet klaar voor
Je leest het goed. We hebben een technologie, gebruikt door miljoenen mensen, uitgevoerd door een veelvoud aan AI-agents, waar we nog niet klaar voor zijn. Dat betekent dat we in actie moeten komen. Moeten investeren in leren over AI, bedenken wat voor maatregelen we nodig hebben én hoe we dit de komende jaren in banen gaan leiden.
Deze technologie gaat invloed hebben op onze manier van werken, maar ook op onze veiligheid. Als we niet investeren in cyberveiligheid, leidt dit op korte termijn tot een toename aan hacks. Maar we gaan ook intensere misinformatiecampagnes zien, waarbij actieve en massale misleiding van mensen door AI-agents niet ondenkbaar is.
Bereid je voor, schat risico’s in, neem dit mee in scenario’s die je ontwikkelt en bespreek in je organisatie en met experts wat voor maatregelen je kunt nemen.
AI in het veiligheidsdomein
Wil je meer weten over de kansen en risico’s van AI in het veiligheidsdomein? Op woensdag 9 september organiseer ik samen met Scherp in Veiligheid de training ‘AI voor de OOV'er’. Daarin laat ik niet alleen de risico’s en kansen van AI zien, maar gaan we ook zeker even de diepte in. Meer weten? Neem contact op met Richard of neem een kijkje op de opleidingspagina via onderstaande button.