VIERKANT BESCHOUWD
Toepassing van AI in de krijgsmacht
Er is opnieuw een ‘revolutie’ gaande. Of in ieder geval een snelle evolutie, want zo kun je de opkomst van kunstmatige intelligentie – aangeduid als AI, de afkorting van Artificial Intelligence – toch wel noemen. AI maakt het al een tijdje mogelijk om filmbeelden zodanig te bewerken dat politici heel andere dingen lijken te zeggen dan wat ze werkelijk hebben uitgesproken. Dat kan nog niet real time, maar het is aannemelijk dat de technologie dit de komende jaren mogelijk gaat maken. Wat wel al kan en razend populair wordt onder scholieren, is het laten schrijven van opstellen en scripties door ‘de computer’. We lezen er nu dagelijks over in de media. Het schrijven van een redactioneel artikel, zoals dit Vierkant Beschouwd (VB), hoeven we dan ook niet meer zelf te doen. Met het programma ChatGPT van OpenAI1 gaat dat vanaf nu helemaal vanzelf. Je hoeft alleen maar de juiste vragen te stellen. En dan is het interessant om de vraag voor te leggen wat AI gaat betekenen op het gebied van defensie en veiligheid.
AI voor defensie en veiligheid
We nemen de proef op de som. Op de vraag ‘What will AI mean for defense and security?’, geeft ChatGPT als antwoord:
‘AI has the potential to revolutionize defense and security by increasing the speed and accuracy of decision-making, providing better intelligence gathering, and enhancing the effectiveness of offensive and defensive operations. AI can also be used to automate mundane and dangerous tasks traditionally done by humans, freeing up personnel to focus on higher-level tasks. AI-enabled surveillance and data analysis can be used to detect and prevent threats before they occur, while AI-powered autonomous and semi-autonomous systems can be used to increase the effectiveness of offensive and defensive operations. AI can also enable the development of advanced weapons systems, such as hypersonic missiles, that can respond faster and more accurately to changing battlefield conditions. Finally, AI can be used to improve the security of networks and digital infrastructure, such as through the use of machine learning and natural language processing to detect and respond to cyber threats’.
Het is evident dat Defensie zich moet aanpassen aan het gebruik van AI en ze is zich daar zeker van bewust. In dit VB kijken we naar de toepassingsgebieden en de manier waarop Defensie hier nu al op inspeelt. Van belang is uiteraard om de juiste randvoorwaarden te creëren. De vraag die dit VB wil beantwoorden is of hier al voldoende werk van gemaakt wordt. Voorleggen van deze vraag aan ChatGPT levert (nog) geen bruikbare resultaten op. Het vervolg van dit VB is daarom van onze eigen hand.
Toepassingsgebieden
Defensie kijkt al geruime tijd naar de mogelijkheden van AI en is aangesloten bij de Nederlandse AI Coalitie (NL AIC). Binnen dit NL AIC zijn in de Werkgroep Defensie vijf toepassingsgebieden onderkend. Deze zijn als volgt toegelicht2:
- Onbemande autonome systemen. Belangrijkste uitdagingen daarbij zijn verplaatsing door onbekend terrein onder dreiging, het verzamelen van informatie op gevaarlijke en moeilijk bereikbare plaatsen en het verantwoord belemmeren van de tegenstander onder betekenisvolle menselijke controle. Als het gaat om bewapende systemen ondersteunt Defensie het advies van de Adviesraad Internationale Vraagstukken (AIV)3.
- Ondersteuning voor militaire besluitvorming en inlichtingen, waarbij harde en zachte sensordata worden verzameld en gecombineerd, zodat situational awareness ontstaat en er vervolgens advies gegeven kan worden over het handelingsperspectief in multi-domain operations.
- Logistiek en predictive maintenance, waarbij inzicht in het functioneren van de eigen systemen en platformen wordt verkregen, zodat onderhoud en bevoorrading daar intelligent op kan worden aangepast.
- Bedrijfsvoering: Inzicht in de gereedheid van personeel en materieel, persoonsgerichte training en opleiding, effectieve zorg, energietransitie en vastgoedbeheer zijn een aantal van de onderwerpen waar Defensie met inzet van AI verbeteringen verwacht.
- (Bedrijfs)veiligheid: risico-identificatie en -management voor personeel en materieel onder alle omstandigheden (bijvoorbeeld als er gevaarlijke stoffen in het spel zijn). En dat alles binnen de kaders van veranderende regelgeving.
Defensie doet al wat met AI
Op het ministerie is de beleidsverantwoordelijkheid voor technologische ontwikkelingen en daarmee ook voor AI belegd bij het Directoraat-generaal Beleid van de Bestuursstaf. Daar is de Defensiestrategie Data Science en AI geschreven (op het moment van schrijven van dit VB helaas nog niet gepubliceerd). In praktische zin zijn het de diverse kenniscentra, zowel op centraal niveau als ook binnen de krijgsmachtdelen (Operationele Commando’s) en de Koninklijke Marechaussee, die op kleine schaal aan het experimenteren zijn, o.a. met robots en kleine drones. Bij robots moet ook worden gedacht aan software tooling, waarmee diverse verwerkingsprocessen worden verrijkt en waar bijvoorbeeld bij de verbetering en vernieuwing van HR- en logistieke IT-systemen gebruik van wordt gemaakt.
Het meest zichtbaar in de militair-operationele omgeving, zijn de experimenten met de RAS-eenheid bij de 13e Lichte Brigade. Deze Robots and Automated Systems eenheid, ter grootte van een klein peloton, heeft onlangs geoefend in Litouwen. Daar leverde de brigade een deel van de multinationale battlegroup in het kader van de NAVO-missie enhanced Forward Presence (eFP). In een internationale omgeving zijn de mogelijkheden gedemonstreerd van op afstand bestuurde rupsvoertuigen, met name om de menselijke inspanning bij de logistiek te verlichten. Maar ook om veiliger te kunnen vechten, dus met wapens op de onbemande voertuigen. Dit roept uiteraard de vraag op welke juridische en ethische regels van toepassing zijn op onbemande en in een later stadium ‘zelf optredende’, dus autonome wapensystemen.
Overigens zijn er binnen onze krijgsmacht al heel lang ‘zelf optredende’ defensieve wapensystemen, zoals de antitankmijn en de Patriot en Goalkeeper antiraketsystemen. Tot op heden zijn die echter niet voorzien van AI en vindt de beslissing tot vuren volledig op door de mens bepaalde wijze plaats. In Nederland spreken we over de noodzaak van ‘betekenisvolle menselijke controle’.
In zijn algemeenheid is het gebruik van wapensystemen gereglementeerd in het humanitair oorlogsrecht, dat overal van toepassing is en niet is beperkt tot situaties waarin staten elkaar formeel de oorlog hebben verklaard. Bij het opstellen van de Conventies van Genève was echter geen rekening gehouden met wapens waarin AI is toegepast en waarin de beslissing tot ‘vuren’ niet volledig door de mens is bepaald.
Randvoorwaarden
Als we kijken naar het eerste toepassingsgebied – onbemande autonome systemen – dan zorgt de term killer drones voor heftige, veelal negatieve reacties. De benaming Lethal Autonomous Weapons Systems (LAWS) klinkt al minder afstotelijk en zegt veel beter waar het om gaat. Het is ook duidelijk dat het woord ‘autonomous’ gerelateerd kan worden aan AI. En dan is voor ons de vraag wat de consequenties zijn als bij de toepassing van AI voor wapensystemen de eis wordt gesteld van betekenisvolle menselijke controle. Het definiëren of concretiseren hiervan is niet eenvoudig. De grootmachten in deze wereld (de Verenigde Staten (VS), Rusland en China) hebben verschillende interpretaties en weigeren vooralsnog om voor LAWS extra regels af te spreken.
Drone, stockfoto, Unsplash
Zoals eerder aangegeven is er een advies uitgebracht door de AIV dat voor een belangrijk deel door onze regering wordt gevolgd. In dit advies wordt onderscheid gemaakt tussen gedeeltelijk en volledig autonome wapensystemen. Voor volledig autonome systemen wordt de regering geadviseerd zich in te spannen voor een wereldwijd verbod. Bij gedeeltelijk autonome systemen is de AIV juist minder terughoudend dan in het verleden en luidt het advies om hierin juist te gaan investeren, mits er tevens meer regulering komt. Rechtmatig gebruik van autonome systemen is volgens de AIV namelijk mogelijk als ‘de criteria van onderscheid, proportionaliteit en voorzorg’ voldoende in acht zijn genomen.4
Ook het tweede toepassingsgebied – ondersteuning van militaire besluitvorming en inlichtingen – is soms lastig te exploreren. Hier wijzen we op de hindernissen die de uitvoeringswet-AVG (uAVG) opwerpt. Zo is het problematisch om ‘slimme’ sensoren in te zetten die gegevens verwerven en verwerken over personen, omdat hiermee hun privacy wordt geschonden. Denk aan het vergaren van inlichtingen met de MQ-9 Reaper, waar Defensie sinds kort over beschikt. Met nieuw aan te schaffen sensoren, waar de Kamer pas mee heeft ingestemd, kunnen o.a. voertuigbewegingen worden vastgelegd. Als er echter ook kentekens worden geregistreerd en verwerkt, al dan niet met AI, dan is mogelijk sprake van ‘ongeoorloofde bijvangst’ en dus onrechtmatigheid. De commissie-Brouwer heeft onlangs helder geconcludeerd dat de uAVG knelt en dat dit negatief uitwerkt op de training en voorbereiding van de krijgsmacht.5
De AIV adviseert de regering zich in te spannen voor een wereldwijd verbod op volledig autonome systemen
Wettelijk kader
De wereld is in rap tempo aan het veranderen. De oorlog in Oekraïne toont aan dat Europa niet gevrijwaard is van grootschalige oorlog. De expansiepolitiek en de bewapening van China doen voorts vermoeden dat in Europa, ook bij een ooit weer te bereiken stabilisatie van de verhouding met Rusland, niet opnieuw een ‘vredesdividend’ zal kunnen worden geïnd. Bovendien is de zich wijzigende opstelling van de VS een belangrijke reden om de eigen krijgsmacht de komende jaren veel sterker te maken.
Voor onze krijgsmacht is gekozen om deze hoogtechnologisch te laten zijn en geschikt te maken voor multidomein en informatiegestuurd optreden (IGO). Deze keuzes zijn vastgelegd in de Defensievisie (DV)2035 en de Defensienota (DN)2022. De Tweede Kamer heeft hier nauwelijks vragen bij gesteld, zodat er inmiddels sprake is van geaccepteerd beleid. Bij dit beleid hoort het adequaat inzetten van AI. En uiteraard dient de wet te worden gevolgd, dus moet wet- en regelgeving op orde worden gebracht.
De vraag is echter of er snel genoeg wordt gezorgd voor de noodzakelijke aanpassing van wet- en regelgeving, waar met name de AIV en de commissie-Brouwer op hebben gewezen. Voor aanpassing van het vigerende humanitair oorlogsrecht is het zeer de vraag of Nederlandse inspanningen echt een verschil gaan maken. De grootmachten en ook veel andere landen zullen doorgaan met het ontwikkelen en gaan gebruiken van autonome, met behulp van AI bestuurde wapensystemen. We mogen hopen dat ethische afwegingen daarbij een bepalende rol spelen.
Ten aanzien van de uAVG noemt de commissie-Brouwer ook maatregelen die ‘de pijn verzachten’, zoals vaker gebruikmaken van de mogelijkheid om krijgsmachtmedewerkers onder het mandaat van de MIVD te laten werken en de ontwikkeling van synthetische oefenomgevingen. Deze maatregelen zijn echter niet afdoende. De MIVD heeft al capaciteits- en toezichtproblemen, terwijl synthetische oefenomgevingen handig kunnen zijn voor het aanleren van basisvaardigheden, maar ze zijn erg duur, tijdrovend en beperkt qua realiteitszin. De gesuggereerde maatregelen mogen wat ons betreft dan ook geen vertragende factor vormen voor het uitbreiden van de wettelijke basis om op militair-tactisch en -operationeel gebied situational awareness and understanding op te bouwen van vijandig gezinde structuren, omgevingen en personen.
De boodschap is duidelijk: aanpassing van wetgeving is urgent en er mag niet langer worden gedraald. Praktisch betekent dit dat de krijgsmacht verder moet gaan experimenteren met AI, o.a. in gedeeltelijk autonome wapensystemen. Hiermee kan worden uitgevonden waar de grenzen liggen van ‘betekenisvolle menselijke controle’ en ook van de uAVG. Daarnaast dienen eveneens de mogelijkheden te worden benut die AI biedt voor het verbeteren en personeel-extensief maken van de logistieke en medische ondersteuning.
Voor zelflerende systemen dient heel veel data beschikbaar te zijn
Talos, of ΤΑΛΩΝ, was in de Griekse mythologie een 30 meter hoge bronzen robot die Europa moest beschermen tegen vreemde indringers, veroveraars en piraten. Daartoe liep hij elke dag drie keer om het Eiland Kreta. (Bron: Wikipedia)
Oh ja, de techniek ...
AI wordt toegedicht een evolutionaire sprong voorwaarts te kunnen bewerkstelligen, ook op militair gebied. Maar het ontwikkelen van zelflerende systemen is best ingewikkeld en vraagt om een hoog niveau van technologische kennis en kunde. Het aanwezig hebben van die kennis en kunde is echter niet voldoende. Voor zelflerende systemen dient namelijk heel veel data beschikbaar te zijn. Denk daarbij aan een publieke cloud-omgeving, zoals die van het internet, waaraan continu en op onvoorstelbaar grote schaal data wordt toegevoegd en uitgewisseld.
Tot op heden werkt Defensie uit veiligheidsoverwegingen met een zogenaamde private cloud. Met het programma Grensverleggende IT (GrIT) wordt de komende jaren de basis IT-infrastructuur voor een belangrijk deel vernieuwd, maar er is – voor zover ons bekend – niet voor gekozen om volledig te koppelen met de publieke cloud en direct data uit te wisselen met andere gebruikers(groepen). Bij de Amerikaanse luchtmacht (USAF) is onlangs de conclusie getrokken dat zo’n koppeling wel noodzakelijk is en die wordt inmiddels ook gerealiseerd. Daarbij worden extra maatregelen genomen om de kwetsbaarheid van de Department of Defense (DoD) IT-infrastructuur te minimaliseren. Wij zijn benieuwd welke afweging onze defensieleiding hierin gaat maken.
Internationale samenwerking
Nederland kan en moet ook op het gebied van AI niet zelf het wiel willen uitvinden. Samenwerking binnen Europa is nodig, maar komt zoals we weten niet snel van de grond. Daarom dient Defensie te blijven kijken naar en vooral de samenwerking te zoeken met bevriende landen waar de toepassing van AI voor de krijgsmacht een hoge prioriteit heeft, zoals de VS en Israël.
We weten hoe het werkt in de wereld; eenzijdige afhankelijkheid maakt kwetsbaar, dus zal de in Nederland aanwezige hoogwaardige kennis en kunde op AI-gebied moeten worden vastgehouden. Voor defensietoepassingen zullen de eigen kennisinstituten en de nationale industrie de ruimte en extra financiële prikkels moeten krijgen. En ook daarvoor geldt: samenwerking in internationaal verband is essentieel. De recente kamerbrief over bijstelling van de Defensie Industrie Strategie geeft hier al goede aanwijzingen voor.6 In die brief wordt tevens gewezen op de noodzaak om veel meer te experimenteren. Uitstekend! Nu nog zien hoe dit in de praktijk uitpakt.
Het is overigens goed dat de Nederlandse regering internationaal aandacht vraagt voor de juridische en ethische kaders voor AI-toepassing door krijgsmachten. Op 15 en 16 februari jl. heeft in Den Haag de REAIM Summit7 plaatsgevonden. Deze internationale conferentie, georganiseerd in samenwerking met Zuid-Korea, liet mooi zien dat het bij AI gaat om politieke bewustwording en aansturing, terwijl in razend tempo praktische toepassingen worden ontwikkeld. Het urgentiebesef wordt hiermee hopelijk snel opgevoerd.
Nederland moet op het gebied van AI niet zelf het wiel willen uitvinden
Ten slotte
AI is vanaf nu medebepalend voor de uitkomst van volgende crises. We moeten niet afwachten tot dit bewezen wordt door de toekomstige grootmacht China. Aan de slag en wel direct! Om te beginnen met de versterking van AI-kennis en -kunde voor defensietoepassing in Nederland én het op orde brengen van onze wet- en regelgeving.
Redactie
Eindnoten:
- OpenAI is een onderzoekslaboratorium voor kunstmatige intelligentie, en uiteindelijk kunstmatige algemene intelligentie. De bedrijfsstructuur bestaat uit een niet-commerciële moedermaatschappij OpenAI Inc., en het commerciële bedrijf OpenAI LP. (Bron: Wikipedia).
- Zie www.nlaic.com, toepassingsgebied ‘Defensie’.
- Het AIV-advies luidt: ‘Volledig autonome wapensystemen kunnen niet volgens de regels van het internationaal humanitair recht worden ingezet en moeten worden verboden. Tevens dient er betere regulering te komen van gedeeltelijk autonome wapensystemen. De AIV en CAVV roepen de Nederlandse regering op zich hiervoor in te spannen. Verder moet Nederland meer investeren in de ontwikkeling en het verantwoord gebruik van nieuwe technologieën door Defensie en in samenwerking met NAVO-landen’. (Bron: website van de AIV).
- Zie rapport ‘Autonome wapensystemen’, AIV-advies 119, CAVV-advies 38, 3 december 2021.
- Zie rapport ‘Grondslag gezocht’, Onderzoekscommissie Brouwer naar het Land Information Manoeuvre Centre (LIMC), openbaar gemaakt op 13 januari 2023.
- Kamerbrief ‘Defensie Industrie Strategie en nieuwe geopolitieke context’, 2 november 2022.
- Conferentie over REsponsible Artificial Intelligence in the Military domain.