Image
AI

Shutterstock.com

Artificiële Intelligentie (AI) en het Militair-Industrieel Academisch Complex (MIAC)
Dossier
21 minuten

Deel 1: De geschiedenis van de AI-integratie in het MIAC

Sinds de succesvolle lancering van ChatGPT door OpenAI in november 2022 gaat er geen dag meer voorbij of (generatieve) artificiële intelligentie (GenAI) komt in het nieuws. Of het nu gaat over de positieve of negatieve toepassingen van AI, voortdurend zijn er tegengestelde berichten: over de verbazingwekkende snelheid waarmee GenAI zich ontwikkelt, over de enorme hoeveelheden energie die ze opslorpt, over de hoge investeringssommen die ervoor nodig zijn of de duizelingwekkende winsten of gevreesde verliezen die de technologie genereert. Wie weet leidt dit hele AI-gedoe misschien wel tot een zeepbel zoals met het internet in 2000. Om maar te zwijgen over de discussies over de creatie door AI van misleidende onwaarheden, over de aanvallen op de privacy of het al dan niet veroorzaken van personeelsverlies, en over het omzeilen van auteurs- en andere intellectuele rechten.

‘The New York Times’ schreef op 21 juni 2025 over de wereldwijde kloof tussen de landen die AI qua energie, technologie en gebruik kunnen ondersteunen en zij die dat niet kunnen. Onlangs (23 oktober) had de dagelijkse nieuwsbrief van dezelfde krant het met betrekking tot AI over “the haves and the have-nots”. Ondertussen gebruikt bijna iedereen op zijn computer en smartphone AI van de gekende vijf Big Tech-bedrijven: Microsoft, Apple, Google (Alphabet), Meta (Facebook) en OpenAI (ChatGPT). Verder zijn er in het zog van deze grote VS-bedrijven tal van kleinere spelers die zich concentreren op specifieke niches, en zijn er zowel voor de grote als gespecialiseerde bedrijven Chinese tegenhangers.

Over al deze wereldveranderende ontwikkelingen willen we het in dit dossier, bestaande uit verschillende delen, niet hebben. Hoewel het op zich meer dan interessant is om de internationale en financiële bewegingen rond AI-bedrijven in hun zoektocht naar de nodige grondstoffen, geld, energie en macht te volgen, en die te vergelijken met wat er momenteel op geopolitiek gebied gebeurt - je zal zien dat de kaarten opvallend goed op elkaar lijken. Wat echter nog veel minder in het nieuws komt, is hoe nauw AI -de bedrijven en de financiën- gelinkt zijn aan bewapening en het militair-industrieel complex (MIC), en bij uitbreiding het militair-industrieel academisch complex (MIAC). In dit eerste deel van het dossier bekijken we die linken vanuit de historische ontwikkeling van AI zelf, en dan vooral in de Verenigde Staten (VS). We gaan ook dieper in op de noodzakelijke ethische standpuntbepaling tegenover de ontwikkeling naar een meer autonome oorlogsvoering met dodelijke robots.

Het ontstaan en de betekenis van AI in een notendop

In tegenstelling tot wat lijkt, heeft AI al een vrij lange geschiedenis. Hoewel sommige verhalen AI linken met Griekse mythologie en middeleeuwse legendes over kunstmatige wezens, kan de echte geboorte van AI worden gesitueerd in de periode 1941-1956. Al in 1936 bouwde de
beroemde Britse wiskundige Alan Turing een conceptuele machine die in staat zou zijn om alle algoritmen uit te voeren die na een eindig aantal stappen stoppen. Dit leidde niet alleen tot het ontstaan van de computer, maar neurowetenschappers begonnen toen ook het menselijk brein als een machine te modelleren.

In 1950 publiceerde Alan Turing een historisch artikel, ‘Computing Machinery and Intelligence’, waarin hij speculeerde over de mogelijkheid om denkende machines te creëren. Hij vereenvoudigde ‘denken’ daarbij tot "in staat zijn om een gesprek te voeren dat niet te onderscheiden is van dat met een mens". In deze beroemde Turing-test probeerden machines het denken te imiteren, weliswaar zonder dat ze zelf konden redeneren. Een belangrijk doel van AI-onderzoek bestaat inderdaad uit het in staat stellen van computers om op een natuurlijke wijze te communiceren. Momenteel slagen AI-modellen met glans voor de zogenaamde Turing-test. Sommigen menen zelfs dat er een vernieuwde Turing-test nodig is om de huidige AI-mogelijkheden te evalueren. Anderen zijn van mening dat AI in het algemeen helemaal niet moet worden getest, want dat het sowieso inhumaan, lees gevoelloos, is.

Tijdens de cruciale Dartmouth-workshop van 1955, georganiseerd door Marvin Minsky en John McCarthy met de steun van IBM-wetenschappers, introduceerde McCarthy de term ‘kunstmatige intelligentie’, gebaseerd op de veronderstelling dat "elk aspect van leren of elk ander kenmerk van intelligentie zo nauwkeurig kan worden beschreven dat een machine kan worden gemaakt om het te simuleren".

In de herfst van hetzelfde jaar presenteerden Newell en Simon de ‘Logic Theorist’, het eerste AI-programma ooit, tijdens een bijeenkomst van de ‘Special Interest Group on Information Theory’ aan het befaamde ‘Massachusetts Institute of Technology’ (MIT). Dit was de geboorte van de interdisciplinaire paradigmaverschuiving die symbolische kunstmatige intelligentie, generatieve taalkunde (Chomsky), cognitieve wetenschap, cognitieve psychologie, cognitieve neurowetenschappen, en de filosofische scholen van computeralisme en functionalisme samenbrachten. (Computeralisme is de opvatting dat de menselijke geest in wezen functioneert als een computer en dat mentale processen kunnen worden begrepen, beschreven of gereproduceerd als berekenbare bewerkingen op symbolen.)

In de jaren 1960 begonnen AI-laboratoria ook onderzoek te doen naar neurale netwerken. Daar werden de eerste modellen conceptueel vastgelegd, maar de toenmalige computers waren niet krachtig genoeg om tot bruikbare resultaten te komen. Begin de jaren 2000 werd ‘machine learning’ toegepast dankzij de beschikbaarheid van krachtige computerhardware, het verzamelen van immense datasets en de toepassing van solide wiskundige methodes. ‘Deep learning’ (een vorm van machinaal leren waarbij computers zelf leren door patronen te herkennen in grote hoeveelheden data), bleek een baanbrekende technologie en transformator te zijn voor de architectuur die sinds 2017 gebruikt wordt om generatieve AI-toepassingen te ontwikkelen. GenAI-toepassingen kunnen nieuwe inhoud creëren in plaats van iets te analyseren, te herkennen of te voorspellen. AI is dus eerder een niet erg afgebakend containerbegrip dat alle ontwikkelingen inhoudt van de vroegste expertsystemen tot de nieuwste neurale netwerken.

Ondanks het vele onderzoek en de voortdurende ontwikkeling van AI zijn er al twee zogenaamde ‘AI-winters’ (1974-1980 en 1987-2000) geweest - periodes waarin de verwachtingen niet werden ingelost, de financiering naar AI-onderzoek werd teruggeschroefd, publieke en wetenschappelijke belangstelling afnam en de vooruitgang aanzienlijk vertraagde. Deze periodes werden telkens gevolgd door cycli van ‘AI-springs’ (lentes) of ‘AI-hypes’, zoals momenteel. Ook nu wordt af en toe gewaarschuwd dat de huidige AI-hype wel eens een lege bubbel zou kunnen zijn, maar de machtige technologische privébedrijven die AI in handen hebben, proberen door nog krachtigere systemen (nog betere hardware en software) onophoudelijk alles te optimaliseren, in de hoop steeds maar meer winst te genereren.

Onder de noemer AI zitten zowel machinaal leren als neurale netwerken, ‘Large Language Models’ (LLM) zoals gebruikt in chatbots, ‘diep leren’, en de nieuwste ‘AI-agents’ (programma's die autonoom kunnen handelen om doelen te bereiken). Algemeen kan AI omschreven worden als “een technologie die het mogelijk maakt dat machines en computers de menselijke intelligentie nabootsen, leren van ervaring via iteratieve verwerking en algoritmische training”. Daarnaast is het via een combinatie van deep learning en ‘reinforcement learning’ ook mogelijk om bij het spelen van computergames nieuwe strategieën te ontwikkelen die voor menselijke spelers dikwijls heel verrassend overkomen. Hoewel AI-systemen zelf geen gevoelens hebben, kunnen ze wel worden getraind om ook over emotionele intelligentie te beschikken (bv. Anthropic Claude 3)

De meeste LLM’s genereren teksten op basis van een simpele regel: bij een prompt of ingegeven opdracht wordt een vervolgopdracht gegenereerd die telkens de meest waarschijnlijke tekst produceert. Hierdoor is het mogelijk dat er zogenaamde “hallucinaties” of fouten ontstaan. Men kan dit vergelijken met een student die de leerstof niet grondig heeft gestudeerd en enkele begrippen aan elkaar probeert te praten. Tevens is AI zo zeer afhankelijk van data-input dat daardoor ook veel stereotypen en vooroordelen verschijnen, ook al lijkt de output plausibel. Doordat er veel onzin wordt verteld op sociale media, zien we deze vooroordelen dikwijls ook doorsijpelen in de output van deze modellen.

De vroege binding met het MIAC

De vroegste AI-wortels in militaire toepassingen gaan terug tot WO II, met de bouw van de Colossus-computer om de nazi-codes te kraken. Tijdens de jaren 1950 werden computers geïntegreerd in de VS-luchtmacht. In de late jaren 1950, begin jaren 1960 werden reeds AI-laboratoria opgezet aan een aantal Britse en VS-universiteiten, gesubsidieerd door overheidsagentschappen zoals het ‘Defense Advanced Research Projects Agency’ (DARPA) in de VS.

Dit beruchte agentschap is sinds jaren het leidende onderzoeks- en ontwikkelingsorgaan van het hernoemde Ministerie van Oorlog. Het is bijvoorbeeld bekend voor zijn ontwikkeling van het internet en de huidige Stealth-vliegtuigen. Het in 1958 opgerichte onderzoekscentrum had oorspronkelijk als taak strategie en technologie te verbinden. Onder president Eisenhower nam het de ruimtewedloop (‘Space Race’) met de Sovjet-Unie voor zijn rekening. DARPA was toen nog geen onderdeel van het Pentagon, hoewel het zich wel al bezighield met de innovatie van wapens.

De jaren daarna ontwikkelde het agentschap het ‘Advanced Research Project Agency Network’ (ARPANET), de voorloper van het internet, als een communicatiesysteem voor het overbrengen van data over verschillende locaties per computer, dat al zeer vlug ook militaire toepassingen kreeg, bijvoorbeeld de communicatie tussen zich verplaatsende wapentuigen zoals tanks en vliegtuigen,  ook in het kader van nucleaire programma’s.

In zijn half geheime geschiedenis ontwikkelde DARPA voor de Vietnamoorlog o.a. landmijnen verborgen als stenen, thermobarische wapens, plantendoders gebaseerd op hormonen en vooral ook de chemische killer, Agent Orange.

Nu zijn er wel meerdere baanbrekende innovaties die hun begin kennen in de militaire industrie. Denken we maar aan de radar in 1935 (Engeland) en in de Verenigde Staten van de jaren 1960 en 1970 -naast het internet- computerchips en wereldwijde locatiesystemen voor militaire doeleinden. Al die ontwikkelingen breidden daarna uit naar civiel gebruik, maar wat AI betreft lijkt het precies omgekeerd.

De verdere geschiedenis van AI toont aan dat na de overwinning van het neoliberalisme in de jaren 1980, de technologische privéondernemingen het voortouw genomen hebben ten opzichte van de academische wereld op het gebied van onderzoek en ontwikkeling. Door jarenlange bezuinigingen en de druk dat onderzoek van het publieke hoger onderwijs resultaten moet opleveren voor de maatschappij (impact), is de sector steeds afhankelijker geworden en meer in dienst gaan staan van de industrie, en zeker van de huidige militaire industrie met zijn lucratieve contracten.

Dat mag uiteraard geen excuus of een verzachtende omstandigheid zijn voor de academische instellingen om het ethische aspect te verwaarlozen. In de praktijk geraakt dit echter meer en meer ondergesneeuwd - in de VS onder Trump is er zelfs sprake van een doorgedreven afbouw van het kritisch onderzoek dat rekening houdt met de ethische dimensie ervan. We kunnen voortaan dus wellicht beter spreken van het militair-industrieel academisch complex” (MIAC), dan kortweg van het MIC.

Bovenstaande korte ontstaansgeschiedenis van AI leidt al naar een paar belangrijke vaststellingen. 
   • Van in het begin is AI verbonden met bewapening en militaire organisatie;
   • Van in het begin is AI gelinkt aan zowel de academische wereld als de industriële - beide doelgericht gesponsord door de politieke macht, alhoewel de private technologiesector op het gebied van AI, zeker in de VS, het voortouw neemt.

Wat dit overwicht van AI in de privé-industrie zoal kan teweegbrengen qua spanningen en verschuivingen is de jongste tijd wel heel duidelijk geworden. Zo werd op 28 oktober 2025 wereldkundig gemaakt dat het bekende bedrijf OpenAI -waarvan de waarde momenteel geschat wordt op 500 miljard dollar en dat in 2015 opgericht werd als een “filantropische stichting”- zich na een jaar van financiële onzekerheid herstructureert naar een winstgedreven onderneming. De oorspronkelijke stichting zou nog wel een aandeel van 130 miljard dollar behouden, wat neerkomt op ongeveer 26%. Maar Microsoft, dat sinds 2019 al meer dan 13 miljard dollar in OpenAI investeerde, verwerft nu een aandeel van 27% of 135 miljard dollar. Microsoft zal ook de intellectuele eigendomsrechten van de modellen en producten van OpenAI behouden tot minstens 2032. Op zijn beurt zal OpenAI voor 250 miljard dollar clouddiensten kopen bij Azure, Microsofts cloudplatform. Op 28 oktober, precies op Bill Gates’ verjaardag, werd duidelijk hoe zijn tactiek van de jaren 1990 opnieuw gebruikt wordt om na Microsoft nu ook de AI-industrie uit te bouwen. Die tactiek is eenvoudig: verover eerst de markt en onderhandel nadien met de achtergebleven wrakken, of hoe monopolies als wapens kunnen worden gebruikt.

En het kan niet op, want diezelfde dag doorbrak AI-chipmaker Nvidia als eerste bedrijf ter wereld een marktkapitalisatie van maar liefst 5 biljoen dollar op de beurs. Dit maakt het mogelijk voor het bedrijf om te investeren in de quantum-supercomputer die het nodig heeft, en om voor 1 miljard dollar aandelen te kopen van het Europese Nokia. Anderzijds brengt deze mijlpaal de vrees voor een overgewaardeerde bubbel dichterbij. Ook op dezelfde dag verklaarde Mustafa Suleyman, het hoofd van de AI-afdeling bij Microsoft, dat het bedrijf erotische AI-toepassingen zal ontwikkelen, terwijl OpenAI’s CEO, Sam Altman, alweer op diezelfde dag meedeelde dat ChatGPT getraind zal worden met aandacht voor mentaal welzijn.

De AI-doorbraak in wapenontwikkeling en oorlogsvoering

Zoals bij veel digitale ontwikkelingen en innovatie is de doorbraak van AI in de oorlogsvoering en wapenproductie -na de jongste AI-winter van 1987-2000- er gekomen door elementen met elkaar te verbinden, ze te laten communiceren of samen te doen werken. Van zodra AI gevoed en dus verder verfijnd kon worden met satelliet- en spionagebeelden, en er automatische herkenning kon ingebouwd worden in bewapende militaire vlieg- en voertuigen, lag de weg naar autonome dodelijke wapens open. De nieuwe oorlogsvoering, met door AI-aangestuurde drones zoals die momenteel ingezet worden in Oekraïne en het Midden-Oosten, is daar een goed voorbeeld van.

Vanaf 2012 stelt de internationale gemeenschap vast dat AI zich snel aan het nestelen is in militaire toepassingen, en de moderne bewapening en oorlogsvoering steeds meer beïnvloedt. Dat is te lezen in een aantal documenten, zoals directieven van het VS-ministerie van Defensie (ondertussen omgedoopt tot ministerie van Oorlog) over autonome wapens, en een rapport van ‘Human Rights Watch’ en de ‘International Human Rights Clinic’ van de ‘Harvard Law School’, dat oproept tot een volledig verbod op autonome wapens.

Reeds in 2017 verklaarde de Russische president Poetin: “Wie de leider wordt in dit domein [van de AI], zal heersen over de wereld.” Ook Henri Kissinger betoogt in zijn boek ‘The Age of AI: And Our Human Future’ (dat hij schreef samen met Eric Schmidt, voormalig CEO van Google, en Daniel Huttenlocher, decaan van het MIT ‘Scharzman College of Computing’), dat AI alles zal veranderen in de internationale verhoudingen sinds WO II, zowel economisch als militair. In een vervolg en Kissingers laatste boek ‘Genesis: Artificial Intelligence, Hope and the Human Spirit’ (met co-auteurs Eric Schmidt en Craig Mundie, ex-topman bij Microsoft), benoemt hij het dilemma van co-evolutie of co-existentie met AI, en het afstemmen van AI-systemen op menselijke noden en waarden als de echte uitdagingen van onze tijd. Hij waarschuwt ook dat als deze buiten beschouwing worden gelaten, winstgedreven en onbedoelde afwijkingen dan de bovenhand zullen krijgen over de voordelen van- en integratie met AI. Het is een pad dat achteraf nog moeilijk te verlaten valt. Er mag gevreesd worden dat dit zich nu al aan het voltrekken is.

Het hoeft dan ook niet te verwonderen dat een van MAGA-wereldheerschappij dromende Trump, amper één dag na de inauguratie van zijn tweede presidentiële ambtstermijn, en geflankeerd door de bazen van de tech-bedrijven OpenAI, Softbank en Oracle, een investering van 500 miljard dollar in de AI-sector aankondigde, bestemd voor het Stargate-project (de ontwikkeling van een AI-supercomputer/infrastructuur). Het AI-onderzoek en de ontwikkeling aan de universiteiten van heilzame AI-toepassingen, bijvoorbeeld in de gezondheidszorg, werden doelbewust van het podium gehouden.

Het opvallende Stargate-initiatief kreeg in september 2025 een opmerkelijk vervolg met een pronkerig presidentieel diner waarop Trump, zijn echtgenote Melania, zijn financiële- en campagnedirecteurs, en stafhoofden de tafel deelden met de CEO’s van vijf van de zogenaamde ‘Magnificent Seven’ (Apple, Amazon, Microsoft, Google, Meta), plus OpenAI en Oracle, alsook met leidende figuren uit de farmaceutische industrie, bio-engineering, defensie en cybersecurity, de halfgeleiderindustrie, de financiële technologie (fintech), de ruimtevaart-sector en de media, evenals kapitaalkrachtige investeerders en de oprichters van specifieke startups.

Onder de 33 aanwezigen viel de afwezigheid op van Tesla-CEO Elon Musk, die in onmin was gevallen met Trump, en van Nvidia-topman Jensen Huang, die geweerd werd omwille van zijn export van halfgeleiders naar China via Taiwan. Het etentje vond plaats tegen de achtergrond van twee grote deals: de VS-regering kondigde een investering van 8,9 miljard dollar in het halfgeleiderbedrijf Intel aan, waardoor ze 10% van de aandelen in handen zou krijgen, en OpenAI ondertekende een contract om over een periode van vijf jaar 300 miljard dollar in Oracle te investeren.

Het gaat er hard aan toe in de wereld van de chips (halfgeleiders) en de grondstoffen en energie nodig voor de productie ervan, bijvoorbeeld tussen chipreuzen uit de VS en China, zoals respectievelijk Intel en SMIC. Wie het overnameverhaal van het chipbedrijf Nexperia door de Nederlandse overheid van de Chinese holding Wintech kent, doorgrondt meteen ook de onderliggende redenen van de huidige geopolitieke spanningen en conflicten.

Dat de satellieten van Elon Musk in het Starlink-netwerk bij de oorlog in Oekraïne een belangrijke rol speelden en nog spelen, is algemeen bekend. Wat minder geweten is, is hoe Musks hoge inzet op AI ook een rol speelt in de ontwikkeling van autonomere en meer nauwkeurige drones. Rusland en Oekraïne zetten nu reeds AI-drones in die op basis van machinaal leren hun doel kunnen volgen en vernietigen. Zo ontplooit Rusland langs de lange frontlijn in het Oosten veel ‘first-person view’-drones (met camera’s die realtime videobeelden doorsturen), waarbij elk als doelwit gespot mensenlichaam nog hoogstens enkele minuten te leven heeft. Als tegenreactie heeft Oekraïne nu gronddrones ontwikkeld die tot 250 kg munitie en/of voedsel kunnen vervoeren. Voor verre verplaatsingen worden ze begeleid door Mavic-luchtdrones.

Zowel in de Verenigde Staten, het Verenigd Koninkrijk, China en Zuid-Korea worden volop dodelijke AI-robotsystemen ontwikkeld. Alhoewel ondertussen trefzekerder, blijft AI fouten maken bij automatische detectie en doding. De moordende ‘collateral damage’ bij elke oorlog lijkt met AI zelfs toegenomen - soms ook opzettelijk, kijk maar naar het gebruik van geavanceerde drones door het Israëlisch leger in Gaza. De integratie van geautomatiseerde functies in wapensystemen, kent een snelle evolutie. Dit brengt het doembeeld dichterbij van volledig geautomatiseerde ‘kill chains’, waarbij elke stap van het proces om een bedreiging uit te schakelen -van het identificeren, het detecteren, het volgen, en het elimineren (doden) ervan- in handen is van AI.

Ook Cyberaanvallen kunnen als gevolg van AI-toepassingen op grotere schaal en preciezer worden uitgevoerd -zelfs autonoom aangedreven of door AI-bots. En fake news, internationaal gericht tegen welbepaalde landen of tijdens democratische verkiezingen, kan gemakkelijker aangemaakt en breder verspreid worden.

Het is duidelijk dat de toepassingen van AI vandaag al bijzonder uitgebreid zijn en volop ingezet worden in de domeinen van defensie en cybersecurity. In oorlogssituaties is het cruciaal om snel te kunnen reageren op voortdurend veranderende gegevens die binnenkomen in commandocentra. AI-systemen kunnen deze datastromen -afkomstig van satellieten, drones, weerrapporten en camerabeelden van soldaten op het terrein- veel sneller en efficiënter analyseren dan mensen. Al biedt dit geen garantie op een humanere oorlogsvoering.

Er kan worden gesteld dat AI de volgende transformaties in oorlogsvoering genereert:
   • De creatie van intelligente wapensystemen, waardoor AI de mogelijkheden van drones en andere autonome systemen tot zogenaamde killer robots verhoogt. Deze technologieën zijn cruciaal voor taken zoals doelherkenning en navigatie, vooral ook waar communicatielijnen verstoord zijn.
   • Grotere controle voor het militair commando doordat AI grote hoeveelheden data in realtime kan verwerken, wat tot snellere en meer geïnformeerde besluitvorming kan leiden - cruciaal in de moderne oorlogsvoering.
   • Snellere besluitvormingssystemen doordat AI vlug complexe slagvelden kan inschatten en strategieën kan suggereren zoals inlichtingen vergaren, toezicht en herkenning.
   • Het vergroten, versnellen, en realistischer en doeltreffender maken van cyberaanvallen, maar ook van cybersecurity.
   • De voorspelling van geopolitieke ontwikkelingen en de identificatie van opkomende bedreigingen, gekoppeld aan het voorspellen van toekomstige- en het evalueren van huidige tegenstrategieën.
   • Simulatie en training, waarbij AI hoog realistische situaties, omgevingen, verplaatsingen en bewapening op slagvelden simuleert.
   • Voorspellend onderhoud en logistiek, zodat defecten in wapensystemen kunnen worden gedetecteerd en voorkomen, en bevoorrading efficiënter kan worden georganiseerd.

Cruciaal bij bovenstaand lijstje is nog de inbedding van AI in geavanceerde netwerken waarin de verschillende bronnen met elkaar communiceren, denken we maar aan satellieten, digitale media en andere inlichtingenbronnen.

De groeiende afhankelijkheid van AI kan de geopolitieke instabiliteit versterken: staten die achterblijven in deze technologische wedloop kunnen zich bedreigd voelen, wat kan leiden tot een versnelling van de wapenwedloop, militaire escalatie en een stijgend internationaal wantrouwen. Het gebruik van AI voor cyberoorlogsvoering en desinformatie kan bovendien de democratische rechtsorde en de internationale veiligheid fundamenteel ondermijnen.

AI-integratie in het MIAC

Inmiddels zijn we die gevaarlijke weg op militair vlak duidelijk al ingeslagen. In 2018 en 2022 noemden de VS-‘National Defense Strategies’ AI reeds cruciaal om de militaire superioriteit te behouden. Daarom wordt er door het Pentagon zwaar in geïnvesteerd. Het budget van het militair innovatiefonds van de VS, waarvan een behoorlijk deel naar AI-projecten gaat, bedroeg in 2022, 34 miljard dollar. Het ministerie van Oorlog stelt dat zijn investeringen in AI gestegen zijn van 600 miljoen dollar in 2016 tot 1,8 miljard dollar in 2024. Voor 2026 is een AI-budget voorzien van 2,2 miljard dollar.

Momenteel investeert het Pentagon in meer dan 685 militaire AI-projecten. Die projecten spitsen zich toe op de AI-integratie in inlichtingen, bewaking, herkenning, logistiek, cyber-operaties en autonome wapens. In 2018 werd het ‘Joint Artificial Intelligence Center’ (JAIC) opgericht, dat alle militaire AI-projecten coördineert. Het JAIC werd in 2021 geïntegreerd in het nieuwe ‘Chief Digital and Artificial Intelligence Office’ (CDAO), dat nu toezicht houdt over de AI-strategie 2023 van het Pentagon – een strategie die het geavanceerd gebruik van AI door de strijdmacht wil versnellen.

Ook DARPA blijft een hoofdspeler. Het beheert verschillende AI-programma’s zoals het ‘Air Combat Evolution’-project (ACE), dat de autonome mogelijkheden van luchtgevechten wil verbeteren. DARPA werkt ook aan het vergroten van de autonomie en weerbaarheid van AI-wapens, zoals de MQ-9 Reaper drone die AI gebruikt om doelwitten te identificeren en te volgen, en de Sea Hunter, een autonoom schip dat het ontwikkelde voor anti-onderzeebootoorlogsvoering.

AI is geïntegreerd in het Maven-project, dat ‘machine learning’ gebruikt om grote aantallen data te analyseren voor inlichtingen, bewaking en verkenning (‘intelligence, surveillance & reconnaissance’ of ISR).

‘MIT Technical Review’-journalist, James O'Donnell, was een van de eerste getuigen die eind november 2024 een wapentestlocatie in San Clemente (Californië) bezocht. De locatie wordt geëxploiteerd door Anduril, een fabrikant van AI-aangedreven drones en raketten, die onlangs een samenwerking met OpenAI aankondigde.

Als data de nieuwe olie is, dan is AI het nieuwe Manhattan-project, en regeringen over de hele wereld investeren daarom volop in infrastructuur om zogenaamde soevereine AI te ondersteunen. In juni 2025 kondigde het VS-ministerie van Oorlog een contract aan met de firma OpenAI van maar liefst 200 miljoen dollar “voor het exploreren van AI-mogelijkheden om de kritieke nationale veiligheidsuitdagingen te beantwoorden”. De deal is het eerste formele Pentagon-contract voor OpenAI en zal gestuurd worden door een nieuwe afdeling, ‘OpenAI for Government’, waar het ministerie deel van zal uitmaken. Ondertussen had het bedrijf zijn samenwerking met de Trump-regering al uitgebreid via samenwerkingen met het ruimtevaartagentschap NASA, de ‘National Institutes of Health (NIH, het VS-overheidsinstituut voor medisch en biomedisch onderzoek) en het ministerie van Financiën. Voor federale ambtenaren had het reeds een specifieke ‘ChatGPTGov’ ontwikkeld.

Een sprekend voorbeeld van hoe technologiebedrijven samenwerken met de overheid binnen het militair-industrieel academisch complex (MIAC) is te vinden in de figuur van Russ Berkoff, een gepensioneerd luitenant-kolonel, die afstudeerde aan de befaamde militaire academie West Point, zijn carrière startte in de speciale eenheden (‘green berets’) en uiteindelijk zeker 13 buitenlandse missies leidde in samenwerking met verschillende VS-ambassades en buitenlandse regeringen. 28 jaar geleden schreef hij een thesis voor de Marinehogeschool van Monterey (California), getiteld ‘Artificial Intelligence and Foreign Policy-Making’, die toen reeds handelde over het gebruik van AI bij het verstrekken van inlichtingen voor- en bij het maken van politieke beslissingen omtrent buitenlandse zaken.

Na zijn militaire loopbaan, bekleedde hij een waaier aan hoge functies die verband hielden met nationale veiligheidsvraagstukken, cybersecurity- en defensietechnologie. Na 9/11 keerde hij tijdelijk terug in overheidsdienst bij de ‘National Security Agency’ (NSA), waar hij verantwoordelijk was voor de strategische planning en voorspellingen voor de inlichtingendiensten, voor het uitwerken -in overleg met de ‘Joint Chiefs of Staff'- van de strategie rond terrorismebestrijding (‘Global War on Terrorism Strategy’), en voor de coördinatie van de NSA-inspanningen met de Directeur van de Nationale Inlichtingendiensten en de onderminister van Defensie voor Inlichtingen. In de private defensietechnologie-sector was hij cybersecurity-expert bij A.T. Kearney en adviseerde hij tal van Fortune 100-bedrijven omtrent cybersecurity-strategieën. Hij bekleedde leidinggevende functies bij onder meer Dell Computers, Nuix en de PTR Group, een bedrijf voor geavanceerde technologische engineeringdiensten. Momenteel is hij directeur Groei en Strategie in de afdeling Defensie- en Veiligheid bij het cybersecuritybedrijf Guidehouse Inc., en strategisch adviseur bij het cybersecuritybedrijf StealthPath Inc., waarvan hij vier jaar CEO en bestuursvoorzitter was. Daarnaast is hij ook gastprofessor voor de online ingenieursstudies van de Johns Hopkins-universiteit. In zijn lessen stelt hij weliswaar de vraag of machines inderdaad tot oorlog en vrede moeten besluiten, maar met zijn achtergrond staat hij uiteraard positief ten opzichte van het gebruik van AI bij politieke beslissingen, al stelt ook hij dat AI “nog geen” volledig vervangmiddel is voor menselijke beslissingen.

Een behoorlijk aantal universiteiten en onderzoeksinstituten in de VS staan aan de top van de ontwikkelingen qua AI. Bekendst is het ‘Massachusetts Institute of Technology’ 
(MIT), dat reeds decennia met AI bezig is. In de dagelijkse MIT-nieuwsbrief en het meer gespecialiseerde tech-magazine ‘The Algorithm’ staan altijd AI-verhalen. In de editie van 11 april bijvoorbeeld stond het verslag te lezen van een gesprek met twee mariniers in de Stille Oceaan, die beiden voor het eerst generatieve AI met een chatbot-interface gebruiken om mogelijke lokale bedreigingen te identificeren. De journalist meldt dit als een recent voorbeeld van hoe het VS-ministerie van Oorlog steeds meer gebruik maakt van generatieve AI en deze tools in toenemende mate integreert in de militaire besluitvorming.

Naast MIT profileren ook andere universiteiten in de VS, zoals de privé-universiteit Johns Hopkins (Baltimore), zich als niet onbelangrijke AI-labo’s. Deze gerenommeerde onderzoeksuniversiteit stelt in haar missie dat ze opleidt en onderzoek doet “for the benefit of the world” (zo verloor ze onlangs 800 miljoen dollar aan onderzoeksgeld doordat Trump het VS-Agentschap voor Ontwikkelingssamenwerking decimeerde), maar er staat niets te lezen op de site over hoe de instelling omgaat met de ethische dimensie van AI.  

Ook China investeert veel in AI-ontwikkeling en is de grootste concurrent van de VS op dit vlak. Artificiële intelligentie wordt erkend als een strategisch item in de Chinese economische planning. De snelle, goedkope en gratis DeepSeek-chatbot illustreert dit. Hoeveel van deze AI-ontwikkeling precies voor militaire toepassingen bestemd is, is momenteel echter moeilijk te achterhalen.

Rusland lanceerde in 2019 een Nationale Strategie voor AI tot 2030 (met wijzigingen aangebracht in 2024), en onthulde vorig jaar een nieuw 10-jarig defensieplan, met een aparte sectie over de ontwikkeling van AI, waarin gefocust wordt op autonome wapens. Rusland beoogde in dat plan 30% van zijn militaire uitrusting geautomatiseerd te hebben tegen 2025. Op dit vlak is de oorlog in Oekraïne een belangrijk testgebied. Anderzijds wordt aangenomen dat het AI-onderzoek en dito ontwikkelingen en toepassingen in Rusland niet het peil halen van de Big Tech-bedrijven in de VS en China.

Hoewel AI tal van humane toepassingen kent, bv. in de gezondheidszorg en de geneeskunde, is ondertussen duidelijk dat AI in het algemeen, maar zeker in haar militaire toepassingen, een zware ethische dimensie omvat. In volgende delen van dit dossier gaan we dieper in op deze ethische dimensie, alsook op de rol van AI in Europa en België, de noodzakelijke controle en de wereldwijde regulering van militaire AI-toepassingen.


Iets fouts of onduidelijks gezien op deze pagina? Laat het ons weten!

Zonder kritisch middenveld, geen gezonde democratie!

De Vlaamse regering is met de botte bijl door de structurele subsidie van Vrede vzw gegaan. Vanaf 2026 moeten we het doen met meer dan de helft minder dan verwacht. Dit brengt onze algemene werking in gevaar! Een kritische, antimilitaristische tegenstem is vandaag nochtans meer dan nodig. Stel ons in staat om de strijd voor vrede en rechtvaardigheid voort te zetten!

Nieuwsbrief

Schrijf je in op onze digitale nieuwsbrief.