Overslaan en naar de inhoud gaan
Image
AI

Shutterstock.com

Artificiële intelligentie (AI) en het militair-industrieel academisch complex (MIAC)
Dossier
27 minuten

Deel 4: de ethische dimensie van AI, de controle op militaire toepassingen en een verbod op dodelijke autonome wapens

De vorige delen toonden aan hoe artificiële intelligentie (AI) vanaf haar ontstaan verbonden was met militaire toepassingen. Vooral sinds de hype rond ChatGPT en ‘large language models’ (LLM’s) heeft AI met veel kapitaal haar intrede gedaan in het militair-industrieel complex (MIC). In de VS gebeurt dit vooral via big tech-bedrijven en met de uitdrukkelijke steun van Trump (zie deel 1 van dit dossier). In Europa, dat de oorlog in Oekraïne en de bokkensprongen van Trump aangrijpt om steeds meer te militariseren, wordt het MIC razendsnel vernieuwd via allerlei defensiefondsen en nieuwe samenwerkingsplatforms tussen het leger en de militaire industrie. Het moet worden gezegd dat deze gevaarlijke cocktail van militair, kapitaal, industrie en staat een kenmerk is van het imperialisme. Dat wordt nogmaals aangetoond door Grace Blakeley in haar boek ‘Vulture Capitalism (2024), evenals door Trumps grootsprakerige openheid over de controle over olie en andere strategische grondstoffen als argument voor invasies (bijv. Venezuela) of territoriale opeisingen (bijv. Groenland). Daarnaast wordt het hoger onderwijs, onder andere via dronetechnologie en AI-onderzoek en -ontwikkeling, in het MIC gelokt en betrokken. De reeds zwakke academische eis dat onderzoek en toepassingen ‘dual use’ moeten zijn (zowel civiel als militair inzetbaar), wordt steeds meer overboord gegooid, waardoor er geen rem meer staat op directe militaire innovaties (zie deel 2 van dit dossier). Ook op Belgisch en Vlaams niveau vormt zich via staatsinvesteringen, financiekapitaal, industrie en (toegepast) onderzoek in het hoger onderwijs zonder belemmeringen een nieuw MIAC (zie deel 3 van dit dossier).

Militaire AI-toepassingen

Inmiddels is gebleken, met Oekraïne en Gaza als uitdrukkelijke testgebieden, dat AI met haar talrijke toepassingen ook de oorlogsvoering en wapenontwikkeling in een nieuwe fase heeft gebracht. AI betekent een belangrijke technologische sprong op tal van militaire domeinen zoals inlichtingen, surveillance, controle en gezichtsherkenning; routeplanning en doelbepaling in autonome systemen zoals drones; cyberveiligheid en cyberoorlogsvoering; bevelvoerings- en beslissingsprocessen; logistiek en operaties, training via door AI gegenereerde simulaties; informatieverspreiding en psychologische oorlogsvoering, o.a. via ‘fake news’ op sociale media; een nieuwe wedloop in wapens met AI-toepassingen; het gebruik van neurotechnologie voor militaire doeleinden; en ‘last but not least’ dodelijke autonome wapensystemen. Dit alles gaat gepaard met een verontmenselijking van verantwoordelijkheid en verantwoording in het militaire domein. 

Samengevat kan gesteld worden dat AI de oorlogsvoering en wapenontwikkeling versneld innoveert, preciezer en dus gevaarlijker maakt, internationaliseert -zowel de ontwikkeling, aanmaak en productie, als de wapenwedloop op zich-, verder digitaliseert en naar het cyberdomein uitbreidt, en tenslotte verontmenselijkt.

De vele militaire AI-toepassingen en ontwikkelingen hebben tot gevolg dat zich internationaal een aantal opvallende verschuivingen voordoen binnen het MIC:

  • Grote, internationaal actieve, technologische privébedrijven hebben hun intrede gedaan.
  • Hun intrede gaat gepaard met hogere investeringen van privékapitaal, zowel wat onderzoek en ontwikkeling, als wat aan- en verkoop betreft.
  • Staten en regeringen kiezen uitdrukkelijker voor militarisering en financieren die in toenemende mate met overheidsmiddelen.
  • Transnationale big tech-bedrijven en het internationale karakter van AI spelen een steeds grotere en directere rol in geopolitieke omstandigheden en conflicten (zie bijvoorbeeld de rol van Musks satellieten in Oekraïne).
  • Omgekeerd hebben de geopolitieke omstandigheden en conflicten door het aandeel van de big tech-bedrijven en het internationale karakter van AI wereldwijd een veel directere en grotere impact.
  • Het verschil tussen defensieve en offensieve toepassingen wordt door de vele en diverse mogelijkheden van AI nog kleiner.
  • Door het onderzoek naar, en de ontwikkeling en toepassingen van AI in het hoger onderwijs, en de aanlokkelijkheid van de financiering ervan, wordt die sector structureel betrokken bij een militair-industrieel-academisch complex (MIAC) - al dan niet via het ‘dual use’-karakter van AI, waarmee bedoeld wordt dat dezelfde technologische ontwikkelingen zowel civiele als militaire toepassingen kennen. 

In welke mate de standpunten van de academische wereld aan het verschuiven zijn in het voordeel van medeplichtigheid aan militarisering en dus oorlog, bleek begin dit jaar nog in Londen. Anthony Finkelstein, vroeger wetenschappelijk hoofdraadgever voor nationale veiligheid van de Britse regering en nu voorzitter van de ‘City St George’s University of London’, pleitte voor “de fundamentele verantwoordelijkheid van de wetenschappelijke en technologische gemeenschap en van degenen die betrokken zijn in onderzoek en onderwijs om bij te dragen aan defensie”.

Dit staat in schril contrast met de vele academici en studenten die een ethisch standpunt innemen tegen militarisering en oorlogsvoering. ‘King’s College’, het beroemde college van de universiteit van Cambridge, bijvoorbeeld verklaarde vorig jaar na studentenprotesten dat het niet langer in organisaties met militaire banden zou investeren.

Het gevaar van ontmenselijkte oorlogsvoering

  1. AI en kernwapens

Op 26 september 1983 ziet luitenant-kolonel Stanislav Petrov (1939-2017) in de bunker van de luchtverdediging te Moskou plotseling het woord “lanceren” op zijn scherm verschijnen. Het bevel wordt automatisch gegenereerd door OKO, het nucleair waarschuwingssysteem van de toenmalige Sovjet-Unie dat op dat moment een jaar actief was. Het systeem meldt dat er vanuit de Verenigde Staten vijf intercontinentale ballistische raketten (ICBM’s) onderweg zijn. Het voorval vindt plaats in volle Koude Oorlog en 21 jaar na de Cubacrisis (1962), waarin de plaatsing van Sovjetraketten op Cuba de wereld aan de rand van een vernietigende kernoorlog bracht.

Wachtcommandant Petrov kan zijn ogen niet geloven en bedenkt onmiddellijk dat het wel vreemd is dat de VS met slechts vijf raketten een oorlog zou beginnen. Hij besluit de waarschuwing van het detectiesysteem niet te melden. Later blijkt dat het systeem een reflectie van zonlicht had gecapteerd en er helemaal geen VS-raketten gelanceerd waren. Een tegenaanval van de Sovjet-Unie en een nucleaire escalatie werden dankzij Petrov verijdeld.

Het voorval toont in alle scherpte aan wat er kan gebeuren wanneer AI in een militaire context een vergelijkbare ‘hallucinatie’ zou produceren en een even geautomatiseerde reactieketen zou veroorzaken bij een of meerdere geopolitieke ‘vijanden’. Feit is dat ondanks de toegenomen accuraatheid van AI in het algemeen -dankzij een grotere data-input-, het aantal geregistreerde incidenten waarbij AI-systemen fouten maken of schadelijke gevolgen hebben sterk blijft toenemen, al neemt het algemeen gebruik van AI uiteraard ook heel sterk toe. 

Veel polemologen vragen zich dan ook terecht af op welke manieren en in welke mate AI de oorlogsvoering gevaarlijk kan ontmenselijken of de kans op oorlog kan vergroten.

De antwoorden daaromtrent zijn verdeeld. Het ‘Bulletin of the Atomic Scientists’ drukt jaarlijks door middel van een symbolische ‘Doomsday Clock’ uit hoe dicht de mensheid staat bij het vernietigen van de wereld via zelfontwikkelde technologieën, zoals kernwapens en AI. Op 27 januari 2026 werden de wijzers van deze Doomsday Clock naar 85 seconden voor middernacht verschoven. We stonden nog nooit zo dicht bij een wereldwijde ramp. Wetenschappers van het Bulletin kijken niet enkel naar de militaire toepassingen van AI, maar ook naar de manieren waarop de bredere technologie internationale oorlogen in de hand kan werken. Ze onderscheiden een aantal hypothetische manieren waarop geavanceerde AI verstrekkende sociale, economische en militaire ontwrichtingen zou kunnen veroorzaken, die tot het uitbreken van oorlogen kunnen leiden. 

Een van de hypothetische scenario’s waarin dit kan gebeuren, is wanneer AI militaire mogelijkheden creëert die het strategische machtsevenwicht zo verstoren dat een of meer regeringen met het technologisch overwicht besluiten tot een winbaar geachte oorlog. Die waarschijnlijkheid lijkt volgens de experten van het Bulletin eerder laag, enerzijds door de vele onderliggende voorwaarden, anderzijds door de toenemende internationale verspreiding van militaire AI-toepassingen – al kan een brede verspreiding op zich ook leiden tot grotere mondiale instabiliteit, geopolitieke spanningen en conflicten. Een ander hypothetisch scenario is het omgekeerde van het eerste: de AI-overmacht van een of meer staten zet de zwakkere partij(en) ertoe aan een oorlog te starten wanneer ze geloven dat de achterstand nog door een aanval in te halen is. Dit scenario lijkt echter minder waarschijnlijk dan het eerste, menen de experten van Bulletin of the Atomic Scientists. 

Het militair gebruik van AI, onder meer via autonome wapensystemen, kan maken dat er minder soldaten ingezet hoeven te worden tijdens oorlogen, hetgeen staten ertoe kan aanzetten sneller over te gaan tot een militaire aanval. Ook het feit dat AI oorlogsvoering goedkoper kan maken is gevaarlijk, want dit kan de drempel om een gewapend conflict te beginnen eveneens verlagen. De vraag blijft echter in welke mate bijvoorbeeld drones en andere geautomatiseerde wapensystemen met geïntegreerde AI goedkoper zijn dan manschappen. In Oekraïne blijven beide ingezet worden. Soldaten zijn er (voorlopig) niet verdrongen door geautomatiseerde systemen en het gewapend conflict wordt ook niet verkort door de inzet van wapens met AI-toepassingen. 

Een bijzonder belangrijke vraag betreft de invloed van AI op kernwapens. De mogelijke automatisering van nucleaire wapens vestigt de aandacht plots weer op het verontrustende zogenaamde ‘dead hand’-mechanisme – een systeem dat in het Sovjettijdperk werd ontwikkeld om automatisch een nucleaire vergeldingsaanval te verzekeren wanneer een vijandige aanval alle menselijke schakels in de commandoketen van het land zou elimineren. In juli 2025, na een week van toenemende spanningen tussen Rusland en de VS en na wat een mislukte ontmoeting leek tussen Trump en Poetin, verwees de voormalige Russische president Dimitri Medvedev op X nog waarschuwend naar dit dead hand-mechanisme, waarop Trump reageerde door te dreigen met het dichter bij Rusland positioneren van nucleaire onderzeeërs. 

De dragers van kernkoppen, met name raketten, kunnen met AI preciezer en doeltreffender worden. In combinatie met de zogenaamde ‘mininukes’, die kleiner en minder krachtig zijn dan traditionele kernwapens, of met kernwapens waarvan de explosiekracht kan worden ingesteld (zoals de nieuwe B61-12 kernbommen van de VS die in NAVO-verband in België zijn gestationeerd), kan dit de drempel voor het gebruik van nucleaire wapens verlagen. Een grotere inzetbaarheid van kernwapens ondermijnt echter de door kernwapenstaten gehanteerde nucleaire afschrikkingsdoctrine, die gebaseerd is op de idee dat staten kernwapens bezitten om een vijand ervan te weerhouden aan te vallen omdat de vernietigingskracht van een mogelijke vergelding zo enorm is dat geen enkele rationele tegenstander dat risico wil nemen. 

Via cyberaanvallen zou AI mogelijk ook gedeeltelijk de controle over vijandige kernwapens kunnen overnemen en hun lancering kunnen verhinderen. Het kan een land echter moeilijk volledig immuun maken voor nucleaire aanvallen. Zolang staten er niet zeker van kunnen zijn dat zij alle vijandelijke kernwapens kunnen neutraliseren, blijft het risico van nucleaire vergelding bestaan. Vanuit dit oogpunt blijft het gevaarlijke nucleaire afschrikkingsbeleid, dat gebaseerd is op de impliciete of expliciete dreiging van wereldwijde massavernietiging, dus overeind. De enige manier om de mensheid daarvoor te behoeden is een mondiale uitbanning van kernwapens, zoals bepleit door de meerderheid van de landen in de Verenigde Naties (VN). Mede dankzij het met een Nobelprijs voor de Vrede bekroonde werk van ‘The International Campaign to Abolish Nuclear Weapons’ (ICAN) -waarvan Vrede vzw lid is- trad op 22 januari 2021 het Verdrag inzake het Verbod op Kernwapens (TPNW) in werking. (België is -net als alle andere NAVO-lidstaten- geen partij bij dit VN-verbodsverdrag.) Een ander scenario stelt de vraag of AI zoveel maatschappelijke chaos kan veroorzaken dat het tot een oorlog komt? AI heeft belangrijke economische, sociale en klimaatgerelateerde gevolgen -denk maar aan toenemende werkloosheid in routinewerk. Grotere economische ongelijkheid, sociale polarisering en onrust, mede veroorzaakt door AI, zouden tot een intern conflict en geweld kunnen leiden. Het is evenmin ondenkbaar dat een land een oorlog ontketent om de binnenlandse spanningen en interne onrust te bezweren. Het stelselmatig en bewust creëren van een (intern of extern) vijandsbeeld is tevens een bekende misleidende methode om een doorgedreven militarisering te rechtvaardigen, wat een oorlog altijd dichterbij kan brengen. 

Daarbij komt dat een economische boom dankzij AI bepaalde leiders zou kunnen aanzetten tot het nastreven van territoriale uitbreiding wegens grondstoffenschaarste -AI zelf berust overigens op hardware en infrastructuur waarvoor verschillende kritieke grondstoffen nodig zijn- of om de afzetmarkten te vergroten. Op die manier wordt ook imperialistische oorlogsvoering waarschijnlijker. Dit scenario ligt duidelijk aan de grondslag van Trumps strategisch denken en doen.

Dat AI vanzelf, zonder enige menselijke politieke en/of militaire besluitvorming en controle, tot oorlog zou leiden zoals in sommige sciencefictionfilms, is volgens de wetenschappers van het Bulletin weinig waarschijnlijk. Anderzijds valt een oorlog veroorzaakt door een autonome hallucinatiefout van AI niet volledig uit te sluiten. 

Andere experten, zoals Lushenko en Carter, wijzen erop dat ondanks de verhoogde automatisering in het militaire domein de uiteindelijke beslissing om tot oorlog over te gaan of om bepaalde wapensystemen in te zetten tot nu toe nog steeds onderwerp is van vastgelegde procedures waarbij mensen betrokken zijn. Toch blijft het meer dan verontrustend dat organisaties zoals het VS-ministerie van Oorlog (dixit Trump) en de NAVO zwaar investeren in AI voor militair gebruik, met name voor inlichtingenverzameling, data-analyse en strategische planning. Het is ook veelzeggend dat het VS-ministerie van Oorlog in 2023, bij de herziening van zijn richtlijn Autonomie in Wapensystemen uit 2012, het begrip “human operator” in de gehanteerde definitie van autonome wapensystemen heeft vervangen door “operator”. Deze wijziging houdt in dat het een optie is te accepteren dat ook niet-menselijke operatoren de in de richtlijn genoemde handelingen verrichten, zoals wapensystemen inzetten. 

Het eerder genoemde voorval met Petrov toont aan dat de beslissing om tot oorlog over te gaan of wapensystemen in te zetten niet kan en mag worden overgelaten aan AI-systemen zonder finale menselijke tussenkomst. Daarnaast rijst de vraag in hoeverre menselijke beslissingen kunnen worden ingegeven door foutieve of gekleurde, door AI gegenereerde data, informatie of scenario’s. Deze mogelijkheid bestaat nu al en vraagt des te meer om transparante en democratische politieke besluitvorming door mensen, die niet alleen rekening houden met alle mogelijke scenario’s en fouten, maar ook met de uiterst belangrijke ethische dimensie van AI in het algemeen en zeker de militaire toepassingen ervan.

  1. Ai en biologische wapens

Mogelijke toepassingen van AI in biologische wapens en biologische oorlogsvoering blijven meestal onderbelicht, terwijl ze minstens even zorgwekkend kunnen zijn als het vaker besproken gebruik bij geautomatiseerde wapensystemen of kernwapens. Laten we niet vergeten dat bij de ontwikkeling van AI goed gekeken werd naar de biologische en neurale netwerken van het menselijk brein.

In een rapport over de belangrijkste opkomende technologische ontwikkelingen bevestigt het ‘World Economic Forum’ (WEF) dat AI het proces van wetenschappelijke ontdekking fundamenteel versnelt, wat belangrijke innovaties oplevert, onder meer in de biologie. Sinds kort zijn er heel wat doorbraken qua AI-toepassingen in de biowetenschappen. Zo vond de wetenschappelijke AI-agent van Google, ‘Co-Scientist’, in korte tijd nieuwe en efficiëntere toepassingen voor antibiotica. 

Zoals bij andere technologische ontwikkelingen kunnen deze op biologisch vlak ook militaire toepassingen hebben. In zijn toespraak van september 2025 voor de Algemene Vergadering van de Verenigde Naties kondigde president Trump aan AI te willen gebruiken om te verifiëren of landen zich aan de Biologische Wapenconventie houden. In het Bulletin of the Atomic Scientists wordt enerzijds gesteld dat AI nuttig kan zijn in verschillende stappen van deze verificatie, maar anderzijds wordt ook gewaarschuwd voor de mogelijke risico’s. 

Het veiligheidsrisico van AI met betrekking tot biologische wapens wordt bevestigd door Dario Amodei, oprichter en CEO van het AI-bedrijf ‘Anthropic’, in zijn lang essay ‘The Adolescence of Technology - Confronting and Overcoming the Risks of Powerful AI’ (januari 2026). In deze bijzonder duidelijke waarschuwing over de vele risico’s verbonden aan krachtige AI in het algemeen stelt hij specifiek dat ‘large language models’ (LLM’s) binnenkort mogelijk de kennis en begeleiding kunnen leveren die nodig zijn om biologische wapens aan te maken. 

In het essay wordt trouwens ook benadrukt dat er een ethische dimensie verbonden is aan AI die niet uitsluitend kan worden overgelaten aan de industrie. Techbazen staan doorgaans bekend om hun aversie tegen regulering, maar zelfs Amodei erkent dat -naast vrijwillige maatregelen door bedrijven- overheidsingrijpen noodzakelijk kan zijn, vooral wanneer AI ernstige veiligheidsrisico’s creëert, zoals bij biologische wapens of autoritaire machtsconcentratie. 

De politiek-ethische dimensie van AI

Een van de eerste internationale instellingen die zich expliciet boog over deze ethische dimensie van AI, was de VN-Organisatie voor Onderwijs, Wetenschap en Cultuur (UNESCO). In een reeks publicaties heeft UNESCO aanbevelingen geformuleerd over het ethisch gebruik van AI (2021), het gebruik van generatieve AI (GenAI) in onderwijs en onderzoek (2023), en AI-competentiekaders voor lesgevers (2024) en studenten (2024).

Zoals van een organisatie als UNESCO kan worden verwacht, is haar aanpak inzake AI in onderwijs en onderzoek er een van co-creatie met alle belanghebbenden, met als doel AI te reguleren in een verantwoorde samenwerking tussen technologie en mens. Tegelijkertijd benadrukt UNESCO dat men zich bewust moet blijven van bezorgdheden rond vooroordelen in AI-systemen (die ongelijkheid en discriminatie kunnen versterken), van de nood aan AI-geletterdheid en digitale vaardigheden, en van het belang van menselijke waardigheid, privacy, copyright en gegevensbescherming, evenals andere ethische kwesties. 

Hoe de Europese Unie (EU) deze bezorgdheden en de ethische dimensie heeft vertaald in een AI-wet is reeds in deel 2 van dit dossier aan bod gekomen. Ondertussen is duidelijk dat Europa, onder druk van de big tech-bedrijven uit de VS maar ook van Europese industriële en politiek-economische lobby’s, haar ambitieuze wet -die overigens niet geldt voor militaire AI-toepassingen- wil versoepelen. De EU wil tegelijkertijd fors investeren in het militaire gebruik van AI. 

Parallel aan de toenemende militarisering van, binnen en door Europa klinkt steeds luider de vraag naar een Europese AI-sector die onafhankelijker is van de Chinese en VS-technologie. In november 2025 keurde de EU de ‘Data Union Strategy’ goed, die enerzijds de regelgeving versoepelt en anderzijds de beschikbaarheid en kwaliteit van data binnen Europa wil vergroten. Ook de vraag naar eigen Europese datacenters klinkt steeds luider. Dit gaat gepaard met de ontwikkeling van Europese ‘open source’-AI (LLM’s), zoals het Zwitserse transparantere en flexibelere ‘Apertus’ dat mede werd ontwikkeld door de technische universiteit ETH Zürich, en EuroLLM - een generatieve AI die op grote meertalige datasets werd getraind en ook minder bekende Europese talen omvat, in tegenstelling tot veel modellen uit de VS die voornamelijk op Angelsaksische data zijn getraind. 

Het gebrek aan wereldwijde regulering van militair AI-gebruik

De meeste polemologen en vredesexperten benadrukken de nood aan nationale en internationale regelgeving rond het militair gebruik van AI. Specifieke regelgeving ontbreekt momenteel echter volledig, op alle niveaus.

In deze tijden van oplopende geopolitieke spanningen en conflicten, van enorme investeringen in militaire opbouw en van afbrokkeling van het internationaal wapenbeheersings- en ontwapeningsregime is het niet verwonderlijk dat zelfs het bereiken van internationale consensus over de noodzaak van richtlijnen en mogelijke regulering geen evidentie is.

Vooral de beperkte groep staten die het AI-onderzoek leiden, en over geavanceerde militaire AI-toepassingen en -wapens beschikken, beschouwt de technologie als strategisch cruciaal. In een context van een opkomende en versnellende AI-wapenwedloop verzetten zij zich tegen beperkingen uit vrees hun militaire voorsprong te verliezen ten opzichte van hun strategische concurrenten.

Dat blijkt bijvoorbeeld duidelijk uit de officiële Artificiële Intelligentie Strategie van de NAVO, die in 2021 werd goedgekeurd door de ministers van Defensie van de lidstaten en in 2024 werd herzien. Deze strategie fungeert als niet-bindend beleidskader voor de ontwikkeling en integratie van AI in de militaire capaciteiten van de alliantie. Het zwaartepunt van de tekst ligt daarbij duidelijk op het verder versnellen van de integratie van AI in militaire systemen, het vergroten van interoperabiliteit tussen de strijdkrachten van de lidstaten, en het behouden van technologische voorsprong ten opzichte van strategische concurrenten. Ook innovatie en samenwerking met de wapenindustrie, universiteiten en technologiebedrijven worden expliciet aangemoedigd met het oog op de ontwikkeling van nieuwe AI-toepassingen voor militair gebruik.

Ethische aspecten komen wel aan bod -zo verwijst de strategie naar principes voor “verantwoordelijk gebruik” van AI, naar het belang van naleving van het internationaal recht, en naar mogelijke risico’s- maar als randvoorwaarden, niet als mogelijke redenen om de ontwikkeling of militaire inzet van de technologie te beperken. De NAVO-strategie pleit evenmin voor de internationale regulering van het militair gebruik van AI.

Dat betekent echter niet dat het onderwerp volledig buiten het internationale debat blijft. Zo lopen er op het niveau van de Verenigde Naties wel enkele initiatieven om de ethische en juridische implicaties van militair AI-gebruik te bespreken. Binnen de Algemene Vergadering en in het VN-Instituut voor Ontwapeningsonderzoek (UNIDIR) worden bredere discussies gevoerd over AI in militaire context (over risico’s van militaire AI-systemen, menselijke controle over geweldsbeslissingen, verantwoordelijkheid en aansprakelijkheid, enz.). Omwille van de zware ethische dimensie van AI raken deze discussies aan de noodzaak van internationale afspraken, maar voorlopig is het doel vooral ethische normontwikkeling, geen verifieerbare regelgeving in de vorm van een verdrag.

De ontwikkeling van regulering is hoe dan ook bijzonder complex, alleen al door de brede reikwijdte van het begrip militair AI-gebruik, variërend van wapens tot onder meer inlichtingenanalyse, logistiek, cyberdefensie en besluitvormingsondersteuning. Veel AI-technologie is bovendien dual-use. Beeldherkenning op basis van AI kan bijvoorbeeld worden gebruikt in medische diagnostiek, maar ook voor doelherkenning in drones. Dit alles maakt het lastig om de technologie te definiëren of juridisch af te bakenen. 

Een bijkomend probleem is dat internationale regelgeving alleen effectief kan zijn wanneer de naleving ervan controleerbaar is. Dat zou in de praktijk een internationaal verificatiemechanisme vereisen, vergelijkbaar met de rol die het Internationaal Atoomenergieagentschap (IAEA) speelt voor nucleaire activiteiten. Het nucleair Non-proliferatieverdrag (NPT) heeft er niet toe geleid dat we in een kernwapenvrije wereld leven, maar de landen die partij zijn bij het verdrag kregen toestemming om kerninstallaties te bouwen waarvan het IAEA nauwlettend controleert of de werking en het onderzoek zich beperken tot civiele toepassingen. Deze controles zijn zeer effectief gebleken.

Indien er al een internationaal verdrag zou bestaan dat staten verplicht militaire AI-toepassingen te registreren, zou controle technisch heel moeilijk zijn. Veel AI-systemen zijn software-gebaseerd, kunnen relatief eenvoudig worden aangepast of verborgen en worden vaak geïntegreerd in bestaande (militaire) systemen. Bovendien wordt AI doorgaans ontwikkeld in private bedrijven en/of universiteiten, wat toezicht nog complexer maakt.

Zelfs wanneer controle theoretisch mogelijk zou zijn, blijven belangrijke politieke obstakels bestaan. Bij AI zou het doel veeleer zijn om de militaire toepassingen zelf te controleren, wat toch van een andere orde is dan het louter inspecteren van civiele installaties. De integratie van AI in nationale ‘command and control’-structuren zou in principe bijvoorbeeld gecontroleerd kunnen worden, maar welke staat zal bereid zijn extern toezicht op de werking van zijn militair commandocentrum toe te laten?

Voor de controle op militaire toepassingen van AI zullen daarom nieuwe verificatietechnieken en mechanismen moeten worden ontwikkeld. Dat vereist ook verder wetenschappelijk onderzoek naar manieren om het gebruik van deze technologieën te monitoren en om potentiële risico’s tijdig te detecteren en tegen te gaan.

Een bijkomend praktisch probleem is dat elke internationale discussie over normatieve kaders en mogelijke regelgeving (inclusief verificatie) van militair AI-gebruik noodzakelijk reactief is. AI wordt vandaag immers reeds in tal van militaire systemen en contexten geïmplementeerd en operationeel ingezet. 

Een belangrijk huidig toepassingsdomein is surveillance en inlichtingenanalyse, waarbij algoritmen grote hoeveelheden beelden van drones, satellieten of andere sensoren automatisch analyseren. In Europa gebruikt het gemilitariseerde grensbewakingsagentschap Frontex bijvoorbeeld AI voor de analyse van grote datasets en surveillancebeelden om activiteiten aan de buitengrenzen van de EU te monitoren, maar ook voor biometrische identificatie, automatische risicoanalyse, enz. Project Maven van het VS-leger is een bekender voorbeeld waarbij machine learning wordt gebruikt om videobeelden van drones te analyseren en objecten of mogelijke doelwitten te identificeren. De resultaten daarvan kunnen militaire besluitvorming en operationele planning ondersteunen. Het systeem wordt trouwens momenteel ingezet in de illegale oorlog van de VS en Israël tegen Iran

Een diep verontrustend actueel voorbeeld van waar het militair gebruik van AI al heeft toe geleid, vinden we in Gaza. Het Israëlisch leger gebruikte er de afgelopen jaren een AI-toepassing voor inlichtingen- en doelwitanalyse, ‘Lavender’, om aan iedere Palestijn een sociale score te geven, gebaseerd op de mate waarin die persoon gelinkt was aan Hamas. Was de persoon bijvoorbeeld familie van een Hamas-lid, sprak hij/zij per telefoon met een Hamas-lid, werd hij/zij samen gezien met een Hamas-lid? Van zodra de persoon boven een bepaalde score steeg, kwam die op een ‘kill list’ te staan. Vervolgens werd een tweede door AI ondersteund systeem ingeschakeld, genaamd ‘Where’s Daddy?’, dat de fysieke positie van de persoon moest achterhalen (bijvoorbeeld via gsm-locatie), waarna de luchtmacht die plaats -eender waar en ongeacht hoeveel omstaanders er waren- bombardeerde. Uit getuigenissen van Israëlische soldaten bleek dat de vereiste score om als doelwit te worden beschouwd op een bepaald moment werd verlaagd, omdat er te weinig mensen op de kill list stonden. 

Een ander domein waarin AI waarschijnlijk al sterk geïntegreerd is, is cyberoperaties. Machine learning wordt daar gebruikt om afwijkingen in netwerkverkeer te detecteren, mogelijke cyberaanvallen te identificeren of malware sneller te herkennen, maar ook om kwetsbaarheden in ‘vijandige’ digitale systemen op te sporen en te benutten. Daarnaast speelt AI vandaag ook al een aanzienlijke rol in logistieke en trainingsprocessen en wordt de technologie steeds meer geïntegreerd in (semi-)autonome wapensystemen. Omdat veel van deze toepassingen relatief eenvoudig in bestaande systemen kunnen worden geïntegreerd, is het bovendien aannemelijk dat AI al in veel bredere mate in militaire contexten wordt gebruikt dan publiekelijk bekend is. Veel militaire projecten blijven immers geclassificeerd. 

Naar een verbod op dodelijke autonome wapens?

Hoewel politieke obstakels en geopolitieke en strategische belangen van staten maken dat er momenteel geen formeel internationaal proces bestaat om het militair gebruik van AI te reguleren, heeft de opkomst, razendsnelle vooruitgang en toenemende implementatie van deze technologie wel het al langer bestaande internationale debat over de regulering van autonome wapensystemen (‘autonomous weapon systems’ - AWS) in een stroomversnelling gebracht - in het bijzonder de discussies rond dodelijke autonome wapensystemen (‘lethal autonomous weapon systems’ - LAWS). AWS zijn in staat om zonder directe menselijke tussenkomst doelen te identificeren, selecteren en aan te vallen, waarbij LAWS specifiek ontworpen zijn om dodelijk geweld te gebruiken. Met andere woorden, alle LAWS zijn AWS, maar niet alle AWS zijn per definitie dodelijk (een autonoom elektronisch storingssysteem is bijvoorbeeld wel een AWS, maar geen LAWS). In de praktijk zijn de meeste AWS die vandaag ontwikkeld worden echter wel dodelijk en dus LAWS. 

Het is belangrijk om te benadrukken dat menselijke inbreng niet altijd volledig uitgesloten is bij autonome wapensystemen. De mate van autonomie en menselijke controle kan namelijk sterk variëren. In sommige systemen is er sprake van een ‘human-in-the-loop’, waarbij een mens nog wel degelijk het definitieve bevel geeft om een aanval uit te voeren. Bij systemen met een ‘human-on-the-loop’ houdt een mens alleen toezicht en kan hij in theorie ingrijpen, maar het systeem handelt grotendeels zelfstandig. De meest vergaande vorm is een ‘human-out-of-the-loop’ systeem, dat volledig autonoom opereert zonder enige menselijke tussenkomst of toezicht.

Wanneer het over (dodelijke) autonome wapens gaat, wordt vaak verwezen naar onbemande vliegende drones, omdat ze vandaag de duidelijkste en snelst ontwikkelende voorbeelden zijn, maar ook bijvoorbeeld autonome voertuigen, gevechtsrobots, onderwaterdrones en autonome schepen kunnen (L)AWS zijn. Daarbij is van belang op te merken dat niet alle autonome wapensystemen gebruikmaken van AI. Sommige functioneren op basis van klassieke, regelgebaseerde software of sensoren, zoals volledig autonome landmijnen die zelfstandig doelen kunnen detecteren en raken, of sommige raketafweersystemen. 

Aangezien de integratie van AI in (dodelijke) autonome wapensystemen de afgelopen jaren in een stroomversnelling is geraakt en dergelijke systemen ook steeds meer operationeel worden ingezet, is de internationale roep om menselijke controle, om strenge regelgeving en zelfs een totaalverbod op LAWS sterk toegenomen.

Op het hoogste internationale niveau vond in oktober–november 2025, tijdens de Algemene Vergadering van de VN in New York, een zitting plaats van het Eerste Comité voor Ontwapening en Internationale Veiligheid, waarin voor het derde jaar op rij een resolutie werd voorgelegd en goedgekeurd over autonome wapensystemen. Deze resolutie vraagt aandacht voor de gevolgen “voor internationale vrede en veiligheid, inclusief het risico van een opkomende wapenwedloop, het verergeren van conflicten en humanitaire crisissen, miscalculaties, het verlagen van de drempel voor en de escalatie van conflicten, en proliferatie”. Ze benadrukt tevens “het belang van de rol van mensen bij het gebruik van geweld om verantwoordelijkheid en aansprakelijkheid te waarborgen en ervoor te zorgen dat staten zich aan het internationaal recht houden”. Daarnaast wijst de resolutie op de “ernstige uitdagingen en zorgen die nieuwe en opkomende technologische toepassingen in het militaire domein -waaronder toepassingen van artificiële intelligentie en autonomie in wapensystemen- oproepen vanuit humanitaire, juridische, veiligheids-, technologische en ethische perspectieven”. Op 6 november 2025 stemden 156 staten voor (waaronder België, en voor het eerst ook Estland, Letland, Litouwen, Roemenië en India) en vijf staten tegen (Wit-Rusland, Noord-Korea, Israël, Rusland en de VS). Acht staten onthielden zich (onder meer China, Polen, Iran en Saoedi-Arabië). 

De belangrijkste gesprekken binnen de Verenigde Naties om specifiek tot regelgeving te komen rond dodelijke autonome wapensystemen en de rol van nieuwe technologieën daarin, vinden echter plaats in het kader van de Conventie inzake Bepaalde Conventionele Wapens (CCW).

Dit belangrijke internationale verdrag heeft tot doel het gebruik van bepaalde soorten wapens, die onnodig en ongerechtvaardigd leed veroorzaken bij strijdkrachten of die zonder onderscheid burgers treffen, te verbieden of te beperken. De verdragstekst bestaat uit twee delen: een algemeen deel en de aangehechte protocollen over de restricties en verboden van welbepaalde wapentypen. De staten die de conventie hebben geratificeerd verbinden zich onder meer tot een verbod op niet-detecteerbare antipersoonsmijnen, het gebruik van brandwapens tegen burgers en blindmakende laserwapens. Momenteel zijn 126 staten partij bij de CCW. Elke vijf jaar komen ze samen om de conventie en haar werking te herzien.

Tijdens de voorbereiding van de zevende herzieningsconferentie, gepland in november 2026, is de discussie over de nood aan het aan banden leggen of verbieden van dodelijke autonome wapensystemen opnieuw aangezwengeld. Op de vergadering van de Hoogverdragsluitende Partijen van de CCW op 12 november 2025 sloten zich vier nieuwe staten (Hongarije, Angola, Mozambique en Nigeria) aan bij de groep van inmiddels 46 landen die van mening is dat op basis van een lopend werkdocument gestart moet worden met concrete onderhandelingen over een internationaalrechtelijk instrument inzake LAWS. Die groep bestaat zowel uit landen die al hun interesse in dergelijke wapens hebben uitgesproken, als landen die het zwaarst getroffen zouden kunnen worden door de verdere ontwikkeling en inzet van deze systemen.

De voorliggende tekst suggereert bepaalde types LAWS te verbieden als ze inherent willekeurig zijn, stelt dat het gebruik van dergelijke systemen steeds moet voldoen aan het internationaal humanitair recht en onderstreept de noodzaak van menselijke beoordeling en controle. 

Van 2 tot 6 maart 2026 en van 31 augustus tot 4 september 2026 buigt een door de CCW aangestelde Groep van Regeringsexperts (GGE) zich verder over het formuleren van elementen voor de regulering van dodelijke autonome wapensystemen en opkomende technologieën daarin, die mogelijk kunnen leiden tot een verdrag of aanvullend protocol bij de CCW. Binnen het GGE, dat op basis van consensus werkt, zijn er echter nog aanzienlijke meningsverschillen over kernpunten zoals de definitie van LAWS en de vraag hoe menselijke controle over dergelijke systemen kan worden gewaarborgd.

Alle landen die vandaag het onderzoek naar en de ontwikkeling en inzet van dodelijke autonome wapensystemen domineren -de VS, China, Rusland, Israël, het Verenigd Koninkrijk, Frankrijk, Turkije en in toenemende mate Oekraïne- nemen deel aan de onderhandelingen binnen de Groep van Regeringsexperts. Terwijl Frankrijk tot de groep van landen behoort die expliciet aandringt op formele onderhandelingen, blokkeren landen als de VS, Rusland en Israël actief elke vooruitgang rond bindende afspraken (China neemt een ambiguë positie in). Hun argument luidt dat het bestaande internationaal humanitair recht, eventueel aangevuld met niet-bindende afspraken, volstaat om het risico van LAWS in te perken. Onderliggend motief is dat ze hun strategische autonomie en technisch overwicht willen behouden. Deze wapens fungeren immers als een militair machtsmiddel dat ze kunnen aanwenden als hefboom om eigen belangen door te drukken, vaak ten koste van staten die dergelijke technologie ontberen. Het zou dan ook logisch zijn dat deze staten zich als blok verenigen en druk uitoefenen om tot bindende afspraken te komen.

Wie de weg naar een -wat de vredesbeweging betreft- noodzakelijk verbod op dodelijke autonome wapens op de voet wil volgen, kan terecht bij de goed geïnformeerde en gedocumenteerde organisatie ‘Stop Killer Robots’, een internationale koepelorganisatie die in 2013 werd opgericht en inmiddels meer dan 250 leden telt, waaronder Vrede vzw. Ook het eerder genoemde tijdschrift, Bulletin of the Atomic Scientists, publiceert regelmatig artikels over het gevaar van (militaire) AI-toepassingen en het gebruik ervan, evenals het internationaal vredesnetwerk ‘TRANSCEND Media Service’.

Strijdpunten, eisen en beleidsvoorstellen inzake het militair gebruik van AI

In plaats van in te zetten op vertrouwensopbouw, samenwerking en ontwapeningsdiplomatie vanuit de door de VN (en Vrede vzw) gepropageerde concepten van gemeenschappelijke en menselijke veiligheid, kiezen de huidige politieke leiders -zowel op Vlaams, Belgisch, Europees en NAVO-niveau- volop voor militarisering.

Naast een explosieve stijging van de militaire budgetten, de opschaling van de wapenindustrie en de normalisering van oorlogsretoriek, wordt deze militarisering op technisch vlak gekenmerkt door de toenemende integratie van artificiële intelligentie in militaire toepassingen.

Dit vierdelig dossier over AI en het MIAC toont niet alleen hoezeer deze technologie al verweven is in het bredere militaire domein, maar ook hoe een enorm gevaar schuilt in het koppelen ervan met dodelijke autonome wapensystemen, kernwapens en biologische wapens. Met de inzet van LAWS in bestaande oorlogstheaters is de overgang van menselijke naar machinale beslissingen over leven en dood al realiteit.

De zware ethische dimensie van het militair AI-gebruik wordt weliswaar breed erkend, maar dit belet geenszins dat staten en de wapenindustrie er onverminderd in blijven investeren. De concurrentiestrijd rond LAWS en het breder militair gebruik van AI resulteert in een nieuwe wapenwedloop tussen grootmachten, met het risico dat geopolitieke spanningen oplopen, de internationale instabiliteit toeneemt en conflicten ontstaan of escaleren.

Om vrede en veiligheid in de wereld te waarborgen, is er dus dringend nood aan bindende, verifieerbare, internationale regulering inzake het militair gebruik van AI. Uiteindelijk hebben zelfs de grootmachten die de geavanceerde militaire AI domineren er belang bij, want het is niet uitgesloten dat zij de controle over hun eigen systemen verliezen, wat ook tot catastrofale gevolgen voor henzelf kan leiden.

Nu regulering uitblijft, moet de vredesbeweging dit thema hoog op de agenda zetten. 

Tegelijk raken universiteiten en academische onderzoeksinstellingen steeds meer verstrengeld met het leger, de politiek en de militaire industrie. Met name hun structurele betrokkenheid bij militaire innovatie op het gebied van AI noopt tot kritische reflectie over de onafhankelijkheid van wetenschappelijk onderzoek en de ethische grenzen van technologische vooruitgang. Omdat militaire AI-toepassingen diep geworteld zijn in het MIAC, is het als vredesbeweging en maatschappij nodig om eisen en beleidsvoorstellen te formuleren die niet alleen gericht zijn tot politieke beleidsmakers. 

Niet-exhaustieve lijst van concrete strijdpunten, eisen en beleidsvoorstellen van de vredesbeweging inzake het militair gebruik van AI:

  1. Volledig verbod op (het ontwikkelen, testen, produceren, verwerven, bezitten, opslaan, verspreiden en gebruiken van) dodelijke autonome wapensystemen (LAWS) en op autonome wapensystemen (AWS) zonder betekenisvolle menselijke controle over het gebruik van geweld.
  2. Volledig verbod op de ontwikkeling en inzet van AI-systemen voor nucleaire commandostructuren, doelbepaling of beslissingen over het gebruik van kernwapens.
  3. Versterking van internationale monitoring, verificatie en inspectie op het verbod van biologische wapens, inclusief mogelijke AI-ondersteunde ontwikkeling van pathogenen.
  4. Ontwikkeling van bindende internationale rechtsinstrumenten (zoals verdragen en protocollen) die de ontwikkeling, verspreiding en inzet van militaire AI-toepassingen reguleren.
  5. Regelgeving inzake militaire AI-toepassingen moet expliciet gebaseerd zijn op het internationaal humanitair recht en internationale mensenrechtenverdragen, en moet duidelijke ethische normen bevatten voor transparantie, verantwoordelijkheid en menselijke controle.
  6. Ontwikkeling van bindende internationale regelgeving rond de ontwikkeling, verspreiding en inzet van AI voor militaire cyberoperaties en informatieoorlog, met effectieve bescherming tegen desinformatie en manipulatie van publieke communicatie.
  7. Internationale monitoring, verificatie en inspectie van het verbod op LAWS door een onafhankelijk VN-agentschap.
  8. Monitoring, verificatie en inspectie van de naleving van internationale regelgeving inzake militaire AI-toepassingen door een onafhankelijk VN-agentschap.
  9. Bevoegdheid van het Internationaal Gerechtshof om geschillen tussen staten over de interpretatie en naleving van bindende internationale regelgeving inzake militaire toepassingen van AI te beslechten.
  10. Verplichte transparantie, democratische controle en menselijke beslissingsmacht op nationaal niveau bij elk gebruik van AI voor militaire doeleinden.
  11. Verbod op het academisch onderzoek en ontwikkeling in het hoger onderwijs dat rechtstreeks ten dienste staat van militaire doelen, inclusief gekend militaire AI-toepassingen.
  12. Academisch onderzoek en ontwikkeling, inclusief op het gebied van AI, moet expliciet worden beperkt tot civiele doeleinden, door de afschaffing van het dual use-label dat in het hoger onderwijs wordt gebruikt om activiteiten ten dienste van militaire doelen te faciliteren.
  13. Geen enkele medewerking van het (hoger) onderwijs aan militarisering en de normalisering van oorlog.
  14. Ontwikkeling en verankering van vredeseducatie in het onderwijs, met aandacht voor ethische aspecten van AI en conflictpreventie.
  15. Bevordering van wetenschappelijk onderzoek naar technische en diplomatieke methoden om proliferatie van dodelijke autonome wapensystemen tegen te gaan.


Iets fouts of onduidelijks gezien op deze pagina? Laat het ons weten!

Land

Zonder kritisch middenveld, geen gezonde democratie!

De Vlaamse regering is met de botte bijl door de structurele subsidie van Vrede vzw gegaan. Vanaf 2026 moeten we het doen met meer dan de helft minder dan verwacht. Dit brengt onze algemene werking in gevaar! Een kritische, antimilitaristische tegenstem is vandaag nochtans meer dan nodig. Stel ons in staat om de strijd voor vrede en rechtvaardigheid voort te zetten!

Campagne

banner

Stop Militarisation

Meer wapens maken de wereld gevaarlijker! Stop de groei van de militaire uitgaven en de militarisering van onze samenleving!

Nieuwsbrief

Schrijf je in op onze digitale nieuwsbrief.