Förebyggande.
Så beskrivs det möte som ska hållas på FN i Genève i april. Där ska representanter från hundratjugo länder, däribland en handfull deltagare från Finland, öppna upp ett tema som närmast kan uppfattas som science fiction.
Det är frågor som allmänheten närmast kommit i kontakt med via filmer som JamesCameronsThe Terminator.
Meningen är att prata om autonoma vapensystem, vapen som, lite förenklat, själva fattar beslut om när och var man klämmer på avtryckaren.
Det är bestyckade robotar som bestämmer vem som ska dö utifrån matematiska logaritmer som ingenjörer skapat.
Där är vi inte riktigt ännu. Men meningen är att ha tydliga regler före det.
Krigsförbrytare och ansvar
En som deltar i mötet är Jukka Pajarinen, ambassadråd på Utrikesministeriet.
Han säger att diskussionerna är informella och att de ingår i CCW–konventionen, FN:s konvention om vissa konventionella vapen, som också sätter upp regler kring vapen som förblindande laservapen och brandbomber.
Det var i 2013 som man kom fram till att också autonoma vapensystem kräver eftertanke, trots att de ännu inte används. Frågan är så i barnskorna att man inte ens kommit överens om en klar definition.
– Det är viktigt att maskinerna är programmerade att följa reglerna när de väl är i användning, säger Pajarinen.
Bakgrund
Konventionen om CCV
-
FN:s konvention om vissa konventionella vapen skapades 1980.
-
Målet är att begränsa eller förbjuda vissa konventionella vapen som uppfattas för som överdrivet skadliga eller vars effekter är urskillningslösa.
-
Behandlar bland annat minor, försåtminering, brandbomber, förblindande laservapen.
-
120 länder har skrivit under konventionen.
-
Diskussionerna om autonoma vapensystem är inofficiella.
- Ett längre reportage om robotar och artificiell intelligens publicerades i KSF Medias tidningar den 5 mars.
Reglerna i fråga handlar om till exempel Genèvekonventionerna som lite förenklat definierar hur man får bete sig i krig.
För robotvapnens del gäller det att hitta lösningar på mycket komplicerade situationer. De ska inte orsaka för stort lidande. De ska kunna skilja mellan en fiendesoldat och en civilperson. De ska förstå huruvida en fiendesoldat gett upp eller inte.
Det betyder att gruppen har en rad oerhört komplicerade frågor på sitt bord. Får beslut om liv och död överlämnas åt en maskin, och kan en maskin agera till exempel "moraliskt korrekt"? Kan en maskin följa internationell humanitär rätt? Kan maskinen avgöra proportionaliteten i ett anfall? Kan en maskin läsa av situationen på rätt sätt?
Och vem är krigsförbrytare om svaret är nej?
Frågorna är inte bara moralisk-etiska, utan också rent tekniska.
Ett stort frågetecken är också huruvida systemen sänker tröskeln för att invadera ett annat land.
– Det går att hävda att egna soldater inte är i fara och att det inrikespolitiskt därför inte är lika dyrt att starta ett krig. Men man kan också hävda att det ligger andra politiska orsaker bakom beslutet att starta krig.
Finland funderar ännu
Vad diskussionerna leder till vet Jukka Pajarinen ännu inte, men det blir kanske lite klarare efter mötet i april.
Hur Finland ställer sig till frågan om autonoma vapensystem är för tidigt att säga, säger han. Få länder har en klar ståndpunkt, förutom USA och Storbritannien som redan nu talar emot helt autonoma vapensystem.
De flesta andra länder vill ännu diskutera saken.
Hittills är det alltid en människa som fattar beslutet att avfyra vapnet, också i mycket automatiserade system som drönare. Men en avgörande fråga som gruppen funderar på är i vilken grad en människa ska vara inblandad i framtiden.
– Vi använder till exempel begreppet "meaningful human control", alltså meningsfull mänsklig kontroll. Vissa medlemsländer anser att en människa alltid ska vara med i beslutsfattandet. Andra vill ännu fundera.
Rudimentära autonoma vapensystem finns redan till exempel vid gränsen mellan Nord– och Sydkorea. En sydkoreansk vapentillverkare skapade kulsprutan Super Aegis II som självständigt hittar, siktar och låser ett mål av mänsklig storlek upp till tre kilometer bort och i vilket väder som helst.
Gemensamt för systemen är att det är en människa som tills vidare fattar beslutet att skjuta.
Det kan ändå tas ännu längre. I Ryssland håller man på att utveckla pansarvagnen T-14 Armata. I sin nuvarande form är den automatiserad för att minimera besättningens arbetsbörda. Men den ska vara det första steget mot en helt autonom pansarvagn.
Samtidigt jobbar man med den luftburna Mig Skat, en autonom drönare som i första hand ska anfalla luftvärnsrobotar i högriskområden.
Projektet Neuron, ett samarbete mellan sex europeiska länder, däribland Sverige, har som mål att utveckla ett helt självständigt flygplan som kan attackera markmål, alltså ett bombplan. Meningen är att skapa ett "proof of concept", en fungerande prototyp som inte börjar massproduceras men som visar att konceptet fungerar. Den tusende flygturen ägde nyligen rum.
Kina håller för sin del på med ett projekt kallat Sharp Sword, också det en autonom drönare.
Här i Finland har Patria inget projekt av motsvarande slag. Däremot följer man med diskussionen. Man deltar ännu inte, men håller ett öga på de moraliska frågetecknen och hur försvarsmakten förhåller sig till systemen.
Rent tekniskt, på grund av geografiska orsaker, är problemen lättare att lösa i luften än på marken. Hur långt man kommit i markteknologin går att spegla i civila lösningar där det redan finns självkörande bilar.
En som är orolig över utvecklingen är Tapani Raiko som forskar i artificiell intelligens på Aalto-universitetet. Han välkomnar diskussionerna.
– Situationen utvecklas inom de närmaste åren, och det behövs regler innan robotkrigarna blir vanligare. Jag ser det som nästa massförstörelsevapen vid sidan av biologiska, kemiska och nukleära vapen, säger Raiko.
Han anser att Genèvekonventionerna i nuläget skulle döma bestyckade robotar (eller "mördarrobotar" som han kallar dem) som krigsbrott eftersom det är förbjudet att anfalla fiendesoldater som inte är stridskapabla.
Orsaken är att dagens artificiella intelligens inte är tillräckligt utvecklad för att läsa av situationen.
– Men snart har man utvecklat artificiell intelligens tillräckligt långt. Då finns det ingen lag som stoppar maskinerna. Jag antar att det är lättare att förhandla fram regler nu, innan vapensystemen används.
Demonisera inte
Pekka Appelqvist, sakkunnig påFörsvarsministeriet och generalsekreterare i Försvarets vetenskapliga delegation,deltar likaså i Genèvemötet. Han är ursprungligen professor i robotik, och poängterar att han inte talar för Finland. Alla åsikter är hans egna. Han poängterar också att frågan är oerhört komplicerad.
– Utgångspunkten är att vi pratar om saker som ännu inte finns.
Appelqvist vill också att man inte automatiskt demoniserar teknologin. Intressegrupper har en tendens att se bara farorna, medan det finns en del fördelar.
– Man ska ta riskerna på allvar. Men en automatisk demonisering leder fort till logiken att precisionsstyrda vapen är omoraliska. Och den slutsatsen kan man inte dra, om valet ligger mellan bombmattor och precisa vapen.
Han tycker också att science fiction och filmer som The Terminator visserligen illustrerar frågeställningen, men att de ger en helt felaktig bild. Det man borde prata om är komplicerade system som bygger på en lång rad sensorer och noder med artificiell intelligens som "diskuterar" sinsemellan.
– Man måste se på frågan på systemnivå och utifrån principer. Redan nu är vi i en situation där man kan hävda att människan fallit ur beslutsprocessen.
Appelqvist talar om vapen som automatiskt väljer ut de farligaste och viktigaste målen, som vissa drönare gör. Människans roll blir då bara att godkänna listan.
– På ett sätt uppfyller det kriterierna för autonoma system.