Je kon er op wachten: de ontwikkeling van wapens die op grond van een algoritme bepalen wie doelwit moet zijn. Voor elke technologie is wel een militaire toepassing te bedenken. En voor elke militaire toepassing is wel een klant te vinden. Of niet? Vredes- en mensenrechtengroepen proberen de ontwikkeling van autonome wapens – killer robots – te stoppen en tot een internationaal verdrag te komen.
Een machine mag niet de beslissing nemen om te doden. Dat is niet alleen onethisch, het is ook behoorlijk link. Een mens kan een fout herstellen, een machine volgt zijn programma. Bekend zijn de verhalen van militairen die op het laatste moment besloten niet te schieten omdat het beoogde slachtoffer toch wellicht een onschuldige burger was. Een mens houdt bovendien een eigen geweten, robots kunnen in grote hoeveelheden worden ingezet zonder dat er ooit eentje zal deserteren. Daarbij: Een robotwapen kan gehacked worden. En bovenal: Het uitschakelen van menselijk handelen maakt de drempel tot inzet van geweld wel erg laag.
Veel wetenschappers, waaronder beroemdheden als Elon Musk en wijlen Stephen Hawking, hebben zichuitgesproken tegen de ontwikkeling van autonome wapens en roepen hun collega's op dit soort projecten te weigeren. Medewerkers van Google gingen in staking tegen deelname aan een militair project waarbij kunstmatige intelligentie werd gebruikt om doelen voor drone-beschietingen te bepalen. Hun actie was succesvol, het contract met het Pentagon werd niet verlengd.
Al in de jaren '40 van de vorige eeuw formuleerde science fictionschrijver Isaac Asimov drie wetten voor robots die nog steeds de basis vormen voor de ethiek van robotica en kunstmatige intelligentie. De eerste twee wetten luiden: Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt. En: Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Hollywood maakte er in in 2004 een spannende actiefilm over.
Intussen wordt in november opnieuw onderhandeld door 88 landen over een verbod – of niet – op 'killer robots'. Een aantal landen (waaronder de VS, Rusland en Israël) wil wel praten maar geen verbod. De Nederlandse regering is wel voor een verbod en stelt dat er bij autonome wapens altijd sprake moet blijven van 'betekenisvolle menselijke controle.' Natuurlijk is er nog wel onenigheid over wanneer menselijke controle 'betekenisvol' is.
Een merkwaardige positie wordt ingenomen door het Europees Parlement. Bij de onderhandelingen over het EU Programma voor Defensie Industrie Ontwikkeling (EDIDP) en het Europees Defensie Fonds verwierp dit parlement een amendement van de Groene, Linkse en Sociaaldemocratische fracties die een verbod voorstelden op het financieren van ontwikkeling van autonome wapens. Estland krijgt inmiddels een subsidie van €30-40 miljoen uit het Europees DefensieFonds voor een robot onderzoeksprogramma, zij het geen 'killer' robots. Maar in september nam datzelfde Europees Parlement een motie aan omte waarschuwen tegen het gebruik van autonome wapens voor doelbepaling en beschieting. Daarin werd dan wel weer expliciet verwezen naar het EU Programma voor Defensie Industrie Ontwikkeling (EDIDP) en het Europees Defensie Fonds.
Is er sprake van verwarring of van voortschrijdend inzicht? Dat laatste zou mooi zijn. Maar een verbod moet wel in de officiële programma's worden vastgelegd en een losse motie blijven.
Het Europees Netwerk Tegen Wapenhandel gaat hierover met Europarlementariërs in gesprek. Het laatste woord hierover is in Brussel nog niet gezegd.
Reactie toevoegen