Deel 2: AI in Europa
In het eerste deel van dit dossier over het militaire gebruik van AI hebben we aan de hand van een korte geschiedenis geschetst hoe AI steeds meer ingang vindt in het militair-industrieel-academisch complex (MIAC), in de moderne wapenontwikkeling en in de oorlogsvoering, via internationale technologische privébedrijven en financiële kartelvorming. In dit tweede deel focussen we op het toenemend militair gebruik van AI in Europa en de vormgeving van een Europees militair-industrieel complex (MIC), inclusief de betrokkenheid van het hoger onderwijs. In het volgende deel zullen we het hebben over AI in België, de dringende noodzaak aan een daadwerkelijke ethische benadering van AI en hoe te ageren tegen autonome wapens.
Het militaire Europa in volle uitbreiding
Al een decennium lang evolueren Europa en de Europese Unie naar een strategie van gezamenlijke Europese defensie. Die evolutie heeft een serieuze boost gekregen sedert de Russische inval in Oekraïne op 24 februari 2022 (hoewel Poetin reeds in 2014 de Krim annexeerde).
De Europese Unie (EU) heeft geen eigen leger (de idee dat dit de lidstaten uiteindelijk zou verplichten om de soevereiniteit over hun nationale defensie en legers los te laten blijft moeilijk liggen). Maar de Unie heeft een gemeenschappelijk veiligheids- en defensiebeleid (GVDB), waarbij lidstaten troepen en middelen kunnen leveren voor gezamenlijke missies en operaties in het buitenland. De EU ondersteunt actief defensiesamenwerking, bijvoorbeeld via het Europees Defensiefonds (EDF) en het Europees Defensieagentschap (EDA). De defensie-uitgaven van de lidstaten zijn de afgelopen jaren ook spectaculair gestegen.
Het in Brussel gevestigde Europees Defensieagentschap (EDA) is in 2004 opgericht en telt ongeveer 180 personeelsleden. Alle 27 EU-lidstaten maken er deel van uit. Het agentschap helpt de lidstaten bij de ontwikkeling van hun militaire capaciteiten en speelt een cruciale rol bij de opbouw van de EU-capaciteit in het licht van het GVDB. Naast het stimuleren van de onderlinge samenwerking tussen de lidstaten op het vlak van defensie, lanceert het EDA nieuwe initiatieven en draagt het oplossingen aan ter verbetering van de defensiecapaciteit. Het helpt de lidstaten die daartoe bereid zijn ook bij de ontwikkeling van een gemeenschappelijke defensiecapaciteit.
In mei 2017 beslisten de lidstaten de opdracht van het Europees Defensieagentschap uit te breiden, onder meer met het gecentraliseerd beheer van door de EU gefinancierde defensieactiviteiten. Het EDA heeft ook samenwerkingsovereenkomsten met landen buiten de EU, zoals Noorwegen, Servië, Zwitserland en Oekraïne. Daarnaast trof het een administratieve regeling met het VS-ministerie van Oorlog, die voorziet in een nauwere trans-Atlantische samenwerking inzake defensie op specifieke gebieden, waaronder de uitwisseling van informatie.
Als een soort van Europese ‘hub’ voor militaire samenwerking bestrijkt het EDA volgens de website van de EU een breed defensiespectrum, waaronder de harmonisering van de vereisten voor operationele capaciteiten, het onderzoek en de innovatie met het oog op technologische ontwikkeling, en opleidingen en oefeningen ter ondersteuning van operaties in het kader van het GVDB. Het EDA werkt ook aan de versterking van de Europese militaire industrie en het bemiddelt tussen de militaire stakeholders van de lidstaten en het militaire EU-beleid. Het agentschap neemt dus een officiële centrale plaats in binnen het rijzend Europees militair-industrieel complex (MIC).
Een voorbeeld van hoe de bedrijfswereld expliciet wordt gekoppeld aan en inhaakt op de Europese militaire opbouw was te zien op 8 december 2025 in Kopenhagen. De ‘Copenhagen Security Summit’ in het Falkoner Centret telde 35 sprekers en meer dan 1200 deelnemers, en was daarmee het grootste commerciële initiatief voor debat en netwerking over veiligheid en geopolitiek in Denemarken. De conferentie werd georganiseerd door de Deense werkgevers- en industriële organisatie ‘Dansk Industri (DI), met als partners de bedrijvenkrant Børsen, het wereldwijde accountants- en adviesbedrijf ‘Ernst & Young’, het vaste advocatenkantoor van de Deense staat ‘Poul Smith/Kammeradvokaten’ en ‘Danske Bank’.
De opdracht van de conferentie was “de rol van bedrijven in een versplinterende wereldorde” toe te lichten en zo de bedrijfswereld uitdrukkelijk te verbinden met de Europese militarisering. Onder de aanwezigen waren o.a. vertegenwoordigers van de NAVO, de vroegere CIA-directeur Pompeo (via videolink), de directeurs van de Deense transnationale bedrijven Vestas (energie) en Terma (defensie en luchtvaart), academische experts, advocaten en de media.
[Professor Jan Oberg, directeur van de onafhankelijke ‘Transnational Foundation for Peace & Future Research’ spreekt van het ‘militair-industrieel-media-academisch complex’ (MIMAC) en omschrijft de conferentie als een ritueel van “kakistocraten” (de minst competente, meest corrupte of moreel zwakste machthebbers, nvdr.) - “een alliantie van militairen, industriëlen, media en academici zonder vredescompas”. Hij roept Europa op een tegenconferentie van vrede en co-existentie te organiseren dat de MIMAC-agenda tegenspreekt en duidelijk maakt dat veiligheid niet alleen om wapens gaat, maar over diplomatie, duurzaamheid, verstandige conflictbeheersing en vertrouwensopbouw op lange termijn.]
Hoewel VS-president Trump al in zijn eerste ambtstermijn twijfels had over de Europese inzet voor en bijdrage aan de NAVO, blijft de versnelde opbouw van een gezamenlijke Europese militaire macht zich echter ontvouwen onder NAVO-vlag. Het proberen ontkrachten van die twijfels heeft geleid tot gestaag stijgende militaire uitgaven van de Europese NAVO-lidstaten – van een verhoging tot 2% van het bruto binnenlands product (BBP) naar 3% van het BBP, met inmiddels de legendarische 5% in zicht.
Sinds het uitbreken van de Russisch-Oekraïense oorlog zijn trouwens meer Europese landen lid geworden van de NAVO (Finland in 2023 en Zweden in 2024) - een uitbreidingstendens die in 2004 werd ingezet door de Baltische en Oost-Europese staten na de val van het IJzeren Gordijn en de implosie van de Sovjet-Unie. Inmiddels telt de NAVO 32 lidstaten in plaats van de oorspronkelijke twaalf.
In de nieuwe veiligheidsstrategie van het Pentagon, die werd bekendgemaakt op 2 december 2025 -de 202de verjaardag van de ‘America First’-Monroedoctrine- staat expliciet dat Europa vanaf 2027 bijna volledig voor zijn eigen veiligheid zal moeten instaan. Hoewel die deadline onrealistisch is, voert ze duidelijk de druk op Europa op om zich verder te militariseren.
Het vernieuwd Europees MIC
Kan het cynischer: in dezelfde week in november 2025 waarin het Europees Parlement het 28-puntenvredesplan voor Oekraïne van de Verenigde Staten en Rusland besprak en aannam, keurde het ook het eerste Europese defensie-industrieprogramma (EDIP) goed. Dit programma beschikt over een budget van 1,5 miljard euro -waarvan 300 miljoen euro bestemd voor Oekraïne- en voorziet tevens in een ‘Fund to Accelerate Defence Supply Chain Transformation’ (FAST) van ten minste 150 miljoen euro, om de Europese defensie-toeleveringsketen en industriële basis te versterken. In feite wordt hiermee een blauwdruk gepresenteerd voor hoe het Europees militair-industrieel complex (MIC) er in de toekomst moet gaan uitzien.
Met deze nieuwe defensiestrategie vloeien in Europa fabelachtige bedragen naar bewapening. Net zoals bij de verhoging van de NAVO-bijdrage -waarbij de EU-landen 650 miljard euro buiten de begrotingsregels mogen houden en via ‘Security Action for Europe’ (SAFE) nog eens 150 miljard euro renteloos en met BTW-vrijstelling mogen lenen- werkt de EU voortdurend aan de versoepeling van de regels voor militaire investeringen.
Op de Europese Raad van 23 oktober 2025 werd beslist om meer middelen te koppelen aan samenwerking tussen lidstaten rond concrete defensieprojecten in de eerste helft van 2026, en dat in nauwe collaboratie met de NAVO. Het grote aandeel van de militaire kennis en industrie zit immers daar en is voor het overgrote deel in (privé-)handen van de VS. Het gaat om projecten rond o.a. militaire mobiliteit, drone-ontwikkeling, anti-dronemaatregelen en luchtafweer. Triomfantelijk stelde Antonio Costa, de voorzitter van de Europese Raad, na afloop van de top: “In minder dan een jaar tijd hebben we, in nauwe samenwerking met de Europese Commissie, de fundamenten gelegd voor het Europa van Defensie”.
Dat zich momenteel belangrijke verschuivingen afspelen binnen het MIC, ligt in deze context dan ook in de lijn der verwachtingen. De gevaarlijke politiek van militarisering als antwoord op geopolitieke spanningen en conflicten werkt deze ontwikkeling nog meer in de hand. Zo is de samenwerking van de Franse bedrijven Airbus en Thales met het Italiaanse Leonardo -goed voor een omzet van circa 6,5 miljard euro en 25.000 werknemers- niet enkel gericht op vreedzame ruimte-exploratie. Het Europees consortium mikt duidelijk ook op de productie van herbruikbare lanceerraketten voor satellieten, als tegengewicht voor SpaceX, het ruimtevaartbedrijf van de wispelturige Musk, dat met zijn laaghangende communicatiesatellieten zoals Starlink een actievel rol speelt in de Russisch-Oekraïense oorlog. (Satellieten op grote afstand zijn immers niet echt bruikbaar voor snel internetverkeer.)
AI in Europa
De EU, die de afgelopen jaren werkte aan een algemeen wetgevend kader rond artificiële intelligentie, gaat met haar AI-wet -Verordening (EU) 2024/1689- prat op de meest controlerende en prescriptieve regelgeving ter wereld. Het is het allereerste geharmoniseerde wettelijke kader dat ook de risico's van AI aanpakt.
De verordening van het Europees Parlement en de Europese Raad van 13 juni 2024 trad in werking op 1 augustus 2024, maar wordt gefaseerd over een periode van twee jaar van toepassing: verbodsbepalingen en verplichtingen inzake AI-geletterdheid gelden sinds 2 februari 2025, beheersregels en verplichtingen voor AI-modellen voor algemeen gebruik sinds 2 augustus 2025, en voor de regels voor AI-systemen met een hoog risico geldt een verlengde overgangsperiode tot 2 augustus 2027.
De aanpak van de EU heeft tot doel onderzoek en industriële capaciteit te stimuleren via het uitbouwen van AI-centra en tegelijkertijd de veiligheid en grondrechten te waarborgen. De wet onderscheidt vier risicograden:
- Onaanvaardbaar risico: AI-toepassingen (de wet onderscheidt er acht) die fundamentele rechten schenden of ernstige schade kunnen veroorzaken, zoals AI-gestuurde manipulatie, misleiding of ‘social scoring’ (het geautomatiseerd beoordelen en rangschikken van personen op basis van brede gedrags- en persoonsgegevens, met als doel hun rechten, voordelen of behandeling te beïnvloeden). Deze toepassingen zijn verboden.
- Hoog risico: AI-systemen die worden ingezet in gevoelige of kritieke domeinen en die een reëel gevaar kunnen vormen voor leven, gezondheid of grondrechten, zoals veiligheidscomponenten in kritieke infrastructuur (bv. vervoer) of door robots geassisteerde chirurgie. Voor deze systemen gelden strenge beheers- en conformiteitsvereisten voor ze op de markt kunnen worden gebracht.
- Transparantierisico: AI-toepassingen die misleidend zijn indien niet duidelijk is dat AI wordt gebruikt, zoals chatbots of door AI gegenereerde of gemanipuleerde content (deepfakes). Voor deze categorie gelden specifieke transparantie- en informatieverplichtingen.
- Minimaal of geen risico: AI-toepassingen met een verwaarloosbaar risico voor veiligheid of grondrechten, zoals AI in games, spamfilters of fotofilters. Deze toepassingen blijven grotendeels vrij van regulering.
Zodra een AI-systeem op de markt is, moet worden toegezien op de naleving van de AI-wet via EU-instanties, zoals het Europees AI-bureau, en via de bevoegde autoriteiten van de lidstaten. Tegelijk rusten specifieke verplichtingen op marktdeelnemers: exploitanten (operatoren) moeten zorgen voor adequaat menselijk toezicht op het gebruik van AI-systemen, terwijl aanbieders van AI (providers) verplicht zijn om na marktintroductie menselijk toezicht en een monitoringsysteem te onderhouden om risico’s, incidenten en niet-naleving tijdig te detecteren en aan te pakken.
De Europese AI-wet is echter vooral gericht op privacy en het beschermen van de consument, en laat het bredere maatschappelijke perspectief buiten beschouwing. Zo zegt de wet bijvoorbeeld weinig over de disruptieve impact van mogelijke toepassingen van AI in sociale media. Onderzoek toont aan dat jongeren die vaker blootgesteld worden aan gewelddadige content via sociale media, meer geneigd zijn de grens te overschrijden om zelf geweld te gebruiken. Voor verschillende psychische aandoeningen, waaronder anorexia, zien we een toename die samenhangt met de opkomst en het wijdverbreide gebruik van sociale media. Ook 'cyberbullying' is voornamelijk gekoppeld aan sociale media en uit onderzoek blijkt dat 16% van de jongeren aangeeft hiervan slachtoffer te zijn geweest.
Al snel werd de Europese AI-wet fel bekritiseerd en tegengewerkt door de lobby's van AI-providers als te beperkend en te bureaucratisch. Dit was inderdaad de algemene teneur op de wereldwijde ‘AI Action Summit’ in Parijs op 10 en 11 februari 2025. Die AI-top reageerde op de belofte van Trump in januari 2025 om de komende jaren 500 miljard dollar te investeren in de AI-sector, met name in het Stargate-project van de Big Tech-bedrijven OpenAI, Softbank, Oracle en MGX (de ontwikkeling van een AI-superinfrastructuur die tot de nationale technologische soevereiniteit van de VS moet leiden). Op haar beurt kondigde de voorzitster van de Europese Commissie, Ursula von der Leyen, in Parijs een initiatief aan om 200 miljard euro (waarvan 50 miljard Europees overheidsgeld) te investeren in AI.
Sommige analisten waarschuwden in aanloop naar de AI-top voor deregulering en voor een aanpak gebaseerd op puur vrijwillige verbintenissen onder druk van de Big Tech-lobby. Helaas werd er in Parijs niet ingegaan op deze bezorgdheden, noch op internationale regelgeving, terwijl dit op de eerste wereldwijde AI-veiligheidstop -georganiseerd in 2023 door het Verenigd Koninkrijk- wel het geval was. In Parijs werd AI duidelijk benaderd als een machtige technologische ontwikkeling in de context van de geopolitieke wereldeconomie.
De tijden zijn inderdaad veranderd sinds Trump en de Big Tech-bedrijven zich in de VS verrassend hebben verenigd om deregulering aan te kondigen, hand in hand met investeringen in AI. Vergelijkbare versoepelingen van de regelgeving worden nu ook door de Europese Commissie (EC) voorgesteld. Eerdere rapporten van o.a. Gallup en McKinsey hadden al duidelijk gemaakt dat Europa achterloopt in de gehypete en snelle ontwikkeling van AI en AI-tools. Inmiddels heeft de EC ook een nieuwe strategie rond AI in onderzoek goedgekeurd, naast een op de industrie gerichte ‘Apply AI Strategy’.
Men kan zich ook afvragen of de huidige AI-wetgeving, net zoals bij de EU-Verordening Gegevensbescherming (GDPR), haar doel voorbij zal schieten. Grote ondernemingen kunnen dergelijke wetgeving beter implementeren omdat zij beschikken over uitgebreide juridische afdelingen, terwijl kleine start-ups deze juridische kennis veel minder beheersen. Zodoende zullen de Big Tech-bedrijven uit voornamelijk de VS en China een voordeel hebben ten opzichte van de Europese spelers, ook al omdat zij zich op hun thuismarkt niet aan deze regels hoeven te houden. Hierdoor zullen Europese spelers zich genoodzaakt zien om zich te beperken tot bepaalde segmenten van de AI-sector (bijvoorbeeld het toepassen van ‘reinforcement learning’-technieken, waarbij de trainingsdata zelf worden gegenereerd) of om uit te wijken naar het buitenland.
Wat de bredere sociale impact van AI zal zijn is moeilijk eenduidig te beantwoorden. Veel AI-toepassingen en AI-agents (systemen die zelfstandig doelen nastreven en meerdere stappen zetten zonder voortdurende menselijke sturing) zullen in eerste instantie gebruikt worden om arbeidsprocessen te vereenvoudigen en zo de productiviteit te verhogen. Paradoxaal genoeg heeft deze ontwikkeling nu al aanzienlijke gevolgen voor de mensen die AI ontwikkelen. Doordat met AI sneller geprogrammeerd kan worden, heeft men voor gelijkaardige projecten minder arbeidskrachten nodig De laatste vijf jaar is het aantal banen voor ontwikkelaars met 35% afgenomen. We zullen deze evolutie ook zien bij tal van creatieve beroepen naarmate AI daar zijn intrede doet en breder wordt ingezet. De EU is niet voorbereid op een implosie van de arbeidsmarkt.
AI in militair Europa
Artificiële intelligentie maakt een steeds belangrijker wordend deel uit van de innovatie en technologische ontwikkeling binnen het Europees militair-industrieel complex. In een uitgebreid ‘Food For Thought’-document daterend van 2023, heeft FINABEL (het in Evere gevestigde intergouvernementeel samenwerkingsverband van de landstrijdkrachten van EU-lidstaten), de toekomstige toepassingen van AI in militaire operaties, cyberware en de geopolitieke implicaties ervan geanalyseerd. In de tekst wordt klaar en duidelijk gesteld dat AI zowel offensief als defensief kan worden gebruikt. In de analyse van 23 bladzijden wordt slechts iets meer dan een halve pagina gewijd aan de morele en ethische gevaren van de ontmenselijking van oorlogen en conflicten. Auteur Éléonore Dashelet stelt dat AI “vragen oproept over verantwoordelijkheid die het leger bij de integratie van intelligente systemen in hun operaties in overweging moet nemen”. En daarmee is de kous af voor deze als militaire denktank voor de EU fungerende organisatie.
Over hoe de oorlogen in Oekraïne en Gaza een speelveld zijn in de ontwikkeling van nieuwe wapens, vooral wat betreft de combinatie van drones met AI, hadden we het reeds in het vorige deel van dit dossier. Die dodelijke ontwikkeling wordt nu steeds meer erkend, maar ook openlijk gestimuleerd door de EU. Een opmerkelijk EU-persbericht van september 2025, met als titel ‘Ukraine and EU Deepen Cooperation in Defence Innovation at Defense Tech Valley’, laat daaromtrent weinig twijfel.
‘Defense Tech Valley’ wordt in het persbericht omschreven als Europa’s “meest toonaangevende top voor dual-use technologie [d.w.z. voor zowel civiel als militair gebruik] en investeringen”. De conferentie wordt georganiseerd met de steun van de EU en vond in 2025 plaats in de Oekraïense stad Lviv, op 16 en 17 september. Meer dan 5.000 technologieontwikkelaars, gebruikers, investeerders en beleidsmakers uit meer dan 50 landen kwamen er samen. Het evenement “zette de rol van Oekraïne in de etalage als een mondiaal knooppunt van op het slagveld beproefde innovatie. Oekraïne’s ervaring op het slagveld heeft moderne oorlogsdoctrines hervormd en laat zien hoe goedkope, schaalbare onbemande systemen, materieel ter waarde van miljoenen kunnen neutraliseren”, aldus het persbericht. Katarina Mathernová, de EU-ambassadeur in Oekraïne, verklaarde: “Door Oekraïense innovatie te integreren in het bredere Europese ecosysteem, versterken we niet alleen de Oekraïense defensie, we dragen ook bij aan de veiligheid en weerbaarheid van het hele Europese continent”.
Wat het gebruik van AI voor militaire doeleinden betreft, is de eerder beschreven Europese AI-wet duidelijk. Artikel 2 van Hoofdstuk I, dat het toepassingsgebied van de wet behandelt, stelt: “Deze verordening is niet van toepassing op AI-systemen voor zover deze (...) uitsluitend voor militaire, defensie- of nationale veiligheidsdoeleinden op de markt worden gebracht, in gebruik worden genomen of worden gebruikt, ongeacht het soort entiteit dat deze activiteiten uitvoert”. En verder: “Deze verordening is niet van toepassing op AI-systemen die niet in de Unie op de markt worden gebracht of in gebruik worden genomen, maar waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden”. Met andere woorden: het militair gebruik van AI-systemen valt niet onder deze voorts gedetailleerde wetgeving - ongeacht of deze systemen worden gebruikt door publieke of private entiteiten, én ongeacht of deze systemen rechtstreeks in de Unie worden ingezet of buiten de EU blijven terwijl de output ervan in de EU wordt gebruikt voor militaire doeleinden (bijvoorbeeld wanneer een buiten de EU gehost AI-systeem cyberanalyses uitvoert en de gegenereerde rapporten -de output- aan een Europese veiligheidsdienst doorgeeft).
De verordening specificeert niettemin: “Indien een AI-systeem dat is ontwikkeld, op de markt is gebracht, in gebruik is genomen of wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, tijdelijk of permanent wordt ingezet voor andere dan deze doeleinden -bijvoorbeeld civiele of humanitaire doeleinden, rechtshandhaving of openbare veiligheidsdoeleinden- dan zou een dergelijk systeem binnen het toepassingsgebied van deze verordening vallen”. Omgekeerd wordt een AI-systeem dat op de markt is gebracht voor civiele of rechtshandhavingsdoeleinden, maar dat wordt gebruikt -met of zonder wijziging- voor militaire, defensie- of nationale veiligheidsdoeleinden, vrijgesteld van het toepassingsgebied van deze verordening. Bij dual use-systemen vallen dus enkel de civiele toepassingen onder de bepalingen van de AI-wet. En ook al zijn het Europees defensiebeleid en het Europees MIC versneld in opbouw, dan nog valt het AI-gebruik binnen elke militaire, defensie- en nationale veiligheidspraktijk buiten de AI-wet!
Het valt dan ook te verwachten dat de innovaties in de EU op het vlak van AI zich in de toekomst in toenemende mate zullen richten op militaire toepassingen. Niet alleen is dit gezien de huidige context van fors stijgende middelen voor Europese militaire opbouw lucratief. Onderzoekers en ontwikkelaars vermijden zich zo ook vast te lopen in de strikte beperkingen die gelden voor het civiel gebruik van AI.
Academische medeplichtigheid
Algemeen kan gesteld worden dat AI in Europa veel minder in handen is van kapitaalkrachtige technologiebedrijven, maar veeleer geconcentreerd binnen het hoger onderwijs en spin-offs daarvan of kleinere start-ups. Meteen stelt zich hier de vraag hoe universiteiten en hogescholen zich positioneren wat het militair gebruik van AI betreft. De zogenaamde ‘dual use’-toepassingen voortkomend uit fundamenteler onderzoek laten een grijze zone toe die vergelijkbaar is met de dubbelzinnige houding van vele universiteiten ten opzichte van de genocide in Gaza.
Niet alleen het feit dat er fabelachtige investeringsfondsen aan de nieuwe Europese militarisering verbonden zijn, maar ook de NAVO-afspraak dat projecten die bijdragen aan militaire opbouw mogen meetellen als defensie-uitgaven (waardoor regeringen onderzoeksfinanciering kunnen inboeken als deel van hun defensiebudget dat aan de verhoogde NAVO-norm moet voldoen), vormen een aantrekkelijke prikkel voor onderzoek en ontwikkeling aan de Europese universiteiten en hogescholen - bovendien hoeft daarbij geen rekening te worden gehouden met de Europese AI-wet, die enkel geldt voor civiele toepassingen. Deze tendens wordt versterkt doordat de publieke financiering van het hoger onderwijs in Europa nauwelijks de indexverhogingen volgt en in vele landen zelfs achteruitgaat.
Sommige academici komen er openlijk voor uit dat ze hun onderzoek en applicatie-ontwikkelingen rechtstreeks ten dienste willen stellen van het uitbreidende militaire apparaat. Sihem BenMahmoud-Jouini, hoofddocente aan de Parijse business school HEC, pleit bijvoorbeeld voor het aannemen van een “meer flexibele en dynamische benadering van geheimhouding” om open innovatie binnen de Europese militaire sector te bevorderen.
Voor het prestigieuze Europese onderzoeksprogramma Horizon, dat in 2021-2027 niet minder dan 95,5 miljard euro ter beschikking stelt (waarvan 35% bestemd is voor klimaatverandering), heeft de Europese Commissie eenzijdig voorgesteld om de criteria waaronder projecten, instellingen of bedrijven in aanmerking komen voor financiering, te wijzigen. Waar momenteel enkel publiek civiel onderzoek in aanmerking komt, zouden in de toekomst ook start-ups toegelaten worden die werken aan dual use- en defensiegerelateerde innovaties. De ‘League of European Research Universities’ (Leru), gecoördineerd door de Katholieke Universiteit Leuven, heeft onmiddellijk tegen dit voorstel geprotesteerd.
Zowel de NAVO als de EU hebben -gebruik makend van de oorlogen in onder meer Oekraïne en Gaza- gekozen voor een meer dodelijke weg met de integratie van AI in hun militaire opbouw. Het is dan ook dringend noodzakelijk dat het hoger onderwijs zich van deze ontwikkeling distantieert, en elke vorm van betrokkenheid of medewerking beëindigt.
Daarmee wordt opnieuw duidelijk dat aan AI, en zeker aan de militaire toepassingen ervan, een belangrijke ethische dimensie is verbonden. Daarover moeten afspraken worden gemaakt, die omgezet worden in effectief beleid, met inbegrip van een volledige afkeuring en stopzetting van AI-onderzoek en -ontwikkeling die rechtstreeks ten dienste staan van landen, bedrijven en organisaties verbonden met bewapening, militarisering en oorlogsvoering.