Antero Honkasalo: Autonomiset asejärjestelmät – Asevarustelun uusin kierre

Teksti: Antero Honkasalo

Ihmislajille on tyypillistä, että se saattaa käyttää suojautumissa väkivaltaa omaa lajia vastaan.  Uusi eloonjäämısoppi – kirjan suojautumista käsittelevässä luvussa käsitelläänkin yhtenä suojautumisen keinoja aseellista puolustautumista ja sodankäyntiä. Tämä kolumni jatkaa näitä pohdintoja keskittyen sodankäynnin tuleviin uhkakuviin.

Ukrainan ja Gazan sodat ovat kiihdyttäneet aseteknologian kehitystä. Erityisesti tämä koskee tekoälyn soveltamista asejärjestelmiin. Jos kone tai laite pystyy toimimaan täysin itsenäisesti, havaitsemaan kohteen, liikkumaan riittävän lähelle ja tuhoamaan sen, on kysymys autonomisesta asejärjestelmästä eli tappajarobotista. Teknisesti tämä on jo täysin mahdollista. Miehittämättömillä kauko-ohjatuilla lennokeilla, veneillä ja muilla sovellutuksia onkin jo niin merkittävä vaikutus koko sodankäyntiin, että voidaan jopa puhua kokonaan uudesta vaiheesta sodankäynnin ja aseteknologian kehityksessä. 

Ajatus autonomisista asejärjestelmistä ei ole uusi. Jo vuonna 1900 Nikola Tesla esitti, että kehitettäisiin itseohjautuvia veneitä, jotka on lastattu torpedoilla. Tulevaisuuden sodissa koneet taistelisivat keskenään ja näin säästyisi ihmishenkiä. Tesla rakensikin maailman ensimmäisen kauko-ohjattavan veneen ja kauppasi sitä Yhdysvaltojen laivastolle. 

Tänä päivänä näistä visioista alkaa tulla täyttä totta. Tietoa voidaan tallentaa yhä pienempään tilaan, kerätä suuria määriä, käsitellä nopeasti ja tehokkaasti, valmistaa entistä tarkempia sensoreita ja kytkeä niitä yhteen. Ihminen-asejärjestelmän rajapinnassa voi olla monia erilaisia valvonta- ja ohjausratkaisuja:

  • Ihminen ohjaa asejärjestelmää
  • Asejärjestelmä toimii itsenäisesti, mutta tietyt tehtävät vaativat ihmisen toimintaa
  • Asejärjestelmä toimii itsenäisesti, mutta ihminen voi tarvittaessa puuttua sen toimintaan
  • Asejärjestelmä toimii täysin itsenäisesti.

Tekoälyn soveltaminen läpäisee koko aseteknologian kentän aina käsiaseita ydinpommeihin. Autonomisuus voidaan periaatteessa rakentaa mihin tahansa aseeseen. Robotit voivat liikkua maalla, ilmassa tai vedessä. Tappajarobotti voi myös olla virtuaalinen haittaohjelma, joka istutetaan vihollisen tietojärjestelmiin.

Robottien edut ja haitat

Ukrainan sota on osoittanut, kuinka haavoittuvaisia kevyille tekoälyä sisältäville miehittämättömille aseille monet sotilas- ja siviilikohteet ovat. Näiden aseiden tuoma sotilaallinen etu on niin ilmeinen tai sen uskotaan olevan, että kehitystyöhön halutaan panostaa suuria summia, jotta muut maat eivät pääse edelle ja saa haltuunsa aseteknologista ylivoimaa. 

Robotit vähentävät omia miestappioita ja niiden käyttö on taloudellisesti edullista. Ihminen voidaan pitää turvassa poissa varsinaiselta taistelukentältä ohjaamassa robottien toimintaa. 

Autonomisten aseiden suuri nopeus tekee mahdottomaksi ihmisen päätöksenteon, jos vastassa on tappajarobotti. Kaksintaistelussa robotti voittaa varmasti. Ihmisen rektion viive on noin 0,1- 0,15 sekuntia. Koneen vain millisekunteja. Tämä pakottaa kehittämään autonomisia aseita, vaikka ei niitä haluaisikaan ottaa käyttöön, jos vastapuoli turvautuu niihin.  Tappajarobottia voidaan edelleen kauko-ohjata, mutta jos se kohtaa uhan, joka vaatii niin nopeaa ratkaisua ja niin suurta tiedonkäsittelyn kapasiteettia, ettei ihmisen toimintaan liittyvä viive voi sitä pelastaa, se voi siirtyä välittömästi automaattiseen ohjaukseen ja yrittää tuhota vihollisen ilman ihmisen antamaa lupaa. Muuten se jää pahasti alakynteen. Toisaalta tämä toiminta synnyttää myös uusia riskejä. Miten jälkikäteen valvoa näin nopeaa toimintaa. Oliko automaattiohjaukseen siirtyminen välttämätöntä? 

Robotit toimivat usein ympäristössä, jossa kommunikaatioyhteyden säilyttäminen voi olla vaikeaa ja vastapuoli voi sitä tietoisesti häiritä. Tämäkin edellyttää robotilta autonomiaa, kun yhteys kauko-ohjaukseen katkeaa. 

Kaikki tehtävät eivät kuitenkaan sovi roboteille. Niiden havaintokyky voi pettää, niillä ei välttämättä ole riittävää kykyä käsitellä omia virheitään. Niiden sopeutuvuudella vaihteleviin olosuhteisiin on muutenkin rajansa; nopeat muutokset voivat sekoittaa niiden ennalta ohjelmoidun toiminnan.  Niiden toimintakyvyn kapeus voi johtaa pahoihin virheisiin toiminnassa, vaikka itse laitteessa ei olisi mitään vikaa. 

Ihminen suorittaessaan tarkkaan rajattua tehtävää samalla pystyy asettamaan sen laajempiin yhteyksiinsä. Ihminen pystyy löytämään uusia ratkaisuja ja muuttamaan omaa toimintaansa. Robottien oppiminen on kaavamaista ja pysyy ennalta asetetuissa rajoissa, vaikka se tuottaisi uusia odottamattomiakin toimintoja. 

Robottien kehittämisen rinnalla kehitetään myös koko ajan uusia keinoja, joilla niiltä voidaan suojautua ja niiden toimintaa voidaan häiritä sekä toisaalta, miten nämä suojautumiskeinot kierretään ja tuhotaan. 

Robottien kyky noudattaa kansainvälisiä sodankäyntiä koskevia lakeja voi myös osoittautua ongelmalliseksi. Pystyvätkö ne erottamaan siviilit sotilaista tai antautuvat sotilaat taistelevista, kun tämä terroristeja ja sissejä vastaan käydyissä aseellisissa yhteenotoissa on ihmisellekin vaikeaa 

Vielä hankalampi tehtävä autonomisille aseille on arvioida, koska voimankäyttö on ylimitoitettua ja koska aiheutetaan suhteetonta kärsimystä. Robottien pitäisi oman varsinaisen toimintaohjelmansa lisäksi pystyä tällöin hyvin monimutkaisesti arvioimaan koko taistelutilannetta ja siihen liittyviä laajempia näkökohtia kuin pelkää vihollisen tuhoamista. 

Robottien algoritmit määrittävät niiden toimintakyvyn. Niihin voi liittyä vääristymiä, joita on vaikea havaita. Robotitkin väistämättä vikaantuvat ja joutuvat onnettomuuksiin. Robottien toimintaan liittyvien riskien arviointia vaikeuttaa robottien tekoälyn oppimiskyky. Vaikka robotille on valmistusvaiheessa tehty huolellinen riskianalyysi, niin oppiminen voi muuttaa sen käyttäytymissä todellisissa toimintaympäristöissä niin, että alkuperäiset riskiarviot eivät enää kata näin syntyneitä uusia riskitekijöitä. Tekoälyn oppiminen ei ole läpinäkyvää. Laitteen käyttäjä ei välttämättä tiedä, mitä se on oppinut ja mitä tästä seuraa. 

Onpa jopa raportoitu tapauksia, joissa tekoäly saa aikaan hallusinaatioita. Ne havaitsevat esineitä, joita ei ole niiden toimintasäteellä tai lainkaan olemassa.

Lennokin kauko-ohjaaminen satojen kilometrien päästä muistuttaa tietokonepeliä. Samalla voi hämärtyä käsitys siitä, että uhrit ovat oikeita eläviä ihmisiä eivätkä peliin rakennettuja elektronisia hahmoja. Tämäkin voi laskea voimankäytön kynnystä ja saada aikaan sen ylimitoitukseen.

Tekoälyn kehittyminen muuttaa myös sotilaita ja heille asetettuja vaatimuksia sekä sotilaallista koulutusta. Sotilailla voi olla käytössään varsinaisten tappajarobottien lisäksi myös henkilökohtaista tekoälyä. Nanoteknologian avulla voidaan valmistaa luodinkestäviä liivejä, jotka ovat hyvin keveitä. Täsmäaseet sisältävät tekoälyä ja samoin myös laitteita, joilla havainnoidaan ympäristöä. Sotilaat näkevät pimeässä ja voivat joka hetki olla yhteydessä komentokeskuksiin. Taistelijat alkavat muistuttaa vähitellen itsekin robottia tai ainakin heidän varustuksensa sisältävät samoja sovellutuksia kuin roboteilla on käytössään.

Vaikka lennokkien avulla voidaan tehokkaasti tuhota viholliskohteita, silti niistä ei ole vielä ainakaan pitkään aikaan miehitysjoukoiksi. Alueiden haltuunottoon tarvitaan edelleen sotilaita. Heillä oli olla apunaan hyvinkin kehittyneitä miehittämättömiä tankkeja, autoja, ja valvontateknologiaa, mutta ihmisen yhteiskunnan valtaaminen ja miehittäminen onnistuu vain ihmiseltä. 

Robottiaseisiin perustuva tekninen järjestelmä eroaa ohjauksen suhteen ydinaseista; autonomisten asejärjestelmien ohjausjärjestelmä on paljon suuremassa määrin hajautettu. Lennokeista ja automaattisista asejärjestelmistä voidaan kuitenkin tehdä keskitetty yhdistämällä niiden ohjaus ja näin rakentaa asejärjestelmä, joka kun se kohdistetaan suureen määrään ihmisiä, voi saada joukkotuhoaseen piirteitä.

Israelin käytössä oleva keskitetty tekoälypohjainen tietojärjestelmä nimeltään Lavender kykenee 2,3 miljoonasta gazalaisesta kerätyn monipuolisen puheluista ja eri somealustojen käytöstä sekä paikkatiedoista koostuvan tiedustelutiedon pohjalta tunnistamaan ja paikantamaan jopa kymmeniä tuhansia ihmisiä potentiaaliseksi viholliskohteeksi. Suuri osa näistä on Hamasin rivijäseniä tai Hamasia tukevia palestiinalaisia, jotka yksin eivät mitenkään pysty uhkaamaan Israelia.

Lavender-Järjestelmää ja sen sisältämiä tietoja käytetään Gazan pommituksissa ja Hamas-taistelijoiden tuhoamisessa. Kerätyn datan pohjalta todennäköisyyslaskelmiin perustuva tekoälyjärjestelmä johtaa kuitenkin väistämättä virheisiin, vääriin tulkintoihin ja siviilien tappamiseen.  Koska Hamas-johtajien surmaaminen on helpompaa heidän kotonaan kuin kaduilla ja tunneleissa, niin on johtajien kotitaloja pommitettaessa tapettu kokonaisia perheitä ja muita sivullisia. Israelin armeija hyväksyy tämän käytännön.  

Lavender ei ole varsinainen tappajarobotti, mutta käytännössä muuttuu sellaiseksi, kun sotilaat alkavat sokeasti luottaa sen antamiin tietoihin. Se ei myöskään ole ainoa Israelin käyttämä tekoälyyn perustuva järjestelmä. Tekoäly käyttö asejärjestelmissä on keskeinen osa Israelin sotilaallista strategiaa, joka on johtanut kymmeniin tuhansiin siviiliuhreihin ja enemmän tai vähemmän tietoisiin sotarikoksiin.

Tekoäly ja ydinaseet

Tekoälyn soveltaminen aseisiin luo oman varustelukirteensä, mutta sillä on myös vaikutusta ydinaseisiin. Niin pitkällä ei vielä kuitenkaan olla, että kauhun tasapaino lepäisi koneälyn tekemien päätösten varassa. 

Lennokeilla voidaan hyökätä ydinvoimaloihin. Niiden avulla, voidaan yrittää tuhota turvallisuusjärjestelmiä ja helpottaa näin terroristihyökkäystä. Vaikka työntekijät tehtaan portilla tarkastetaan huolellisesti, niin lennokeilla voi pudottaa aseita ydinvoimalan alueelle. 

Suurempi riski liittyy kuitenkin ydinaseisiin. Tekoälyä käytetään yhä enenevässä määrin ydinasejärjestelmän eri osa alueilla ja ennen kaikkea, kun pyritään mahdollisimman varhaisessa vaiheessa havaitsemaan uhkaavat vaaratilanteet. Koska kauhun tasapaino perustuu kykyyn vastata ydinaseilla tehtävään iskuun samoilla aseilla, niin autonominen asejärjestelmä periaatteessa voisi suorittaa kostoiskun silloinkin, kun yhtään hyökkäyksen kohteeksi joutuneen maan asukasta ei ole enää jäljellä. Neuvostoliiton tiedemiehet kehittivät jo silloisen automaatiotason avulla tällaista tuomionpäivän konetta. Se ensin tarkistaa, onko maan johto vielä olemassa ja jos se vakuuttuu, ettei näin ole, se laukaisee ydinaseet. Vaikka järjestelmä olisi normaaliolosuhteissa pois päältä, niin kriisitilanteissa se voidaan aktivoida.  Järjestelmän tarkoituksena oli lujittaa kauhun tasapainoa. Se viestitti Yhdysvalloille, että vaikka maan johto katsoisi saaneensa niin suuren etulyöntiaseman asevarustelussa, että sille syntyisi houkutus harkita ensi-iskua ydinaseilla, niin tämä ei kannattanut, koska vastaisku tulisi joka tapauksessa. 

Tekoäly antaa myös uusia mahdollisuuksia niille maille, joilla ei ole ydinaseita, valmistella hyökkäyksiä ydinasejärjestelmiä vastaan. Näin riski ydinsodan alkamiseen laajenee ydinasevaltojen ulkopuolelle. Pelkästään pahantahtoinen hakkerointi ydinaseiden valvontajärjestelmään voi aiheuttaa pelottavia vaaratilanteita. Kun tekniikka alati kehittyy ja halpenee, niin yhä pienemmin resurssein voidaan saada vakavia häiriöitä aikaan. 

Tekoälyn toiminta on ratkaisevasti riippuvainen siitä tiedosta, jota siihen on syötetty ja jota vastaan se vertaa havaintojaan. Tähän tietoon, voi liittyä virheitä ja vääristymisiä, joita voi olla vaikea huomata ja saada selville. 

Ydinasejärjestelmissä havaintoaineiston käsittelyssä käytetään silti yhä enemmän tekoälyä jo siitä syystä, että se pystyy käsittelemään dataa nopeammin kuin ihminen. Samalla kuitenkin se tieto, jonka perusteella mahdollinen laukaisupäätös tehdään, perustuu päivä päivältä yhä enemmän tekoälyn suorittamiin havaintoihin ja laskelmiin. Voidaankin kysyä kuinka paljon itse asiassa tekoäly ohjaa päätöksentekoa jo nykyisissäkin järjestelmissä, vaikka ihminen tekee lopullisen päätöksen. 

Ainoa varma tapa ratkaista ongelma on poistaa ydinaseet kokonaan eli panna täytäntöön ydinaseita koskeva kieltosopimus.  Ainakin ydinasevaltojen pitäisi yhdessä luoda mekanismeja, joiden avulla ne voivat vähentää tekoälyn tuomia riskejä. 

Kuitenkin ydinasevallat eivät ole menossa tähän suuntaan. Pikemminkin päinvastoin. Ne uskovat, että kehittämällä tekoälyä sen ydinasejärjestelmille aiheuttamat uudet riskit saadaan hallintaan. Tekoälyn soveltaminen ydinaseisiin lisää valvontajärjestelmän tarkkuutta sekä parantaa pommien osumistarkkuutta ja siksi pitää olla varovainen, kun säädellään tekoälyn soveltamista, ettei menetetä näitä etuja. 

Timo Airaksinen (2006) kirjoittaa kirjassaan Ihmiskoneen tulevaisuus:

”Metaforisesti sanomme, että tekniikka ruokkii tekniikkaa. Tekniikka kilpailee tekniikan kanssa. Metaforan osuvuus merkitsee, että ilman tuota kielikuvaa esimerkiksi asevarustelun tai autojen kasvun ymmärtäminen ei olisi mahdollista. Tietysti voi yrittää taloudellista mallia (autot) tai valtapolitiikkaa(aseet), mutta loppujen lopuksi palataan siihen ajatukseen, että yksi pommi poikii toisen ja iso auto isomman auton. Talous ja politiikka ovat teknologian palveluksessa, ei toisinpäin.” 

Aseiden kohdalla tämä mielestäni pätee vielä paremmin kuin autojen. Siitä pitää kauhun tasapaino huolen. Uusiin aseisiin vastataan aina kehittämällä entistä vielä tehokkaampia. Varallisuutta sen sijaan voi osoittaa muullakin tapaa kuin auton hevosvoimilla. 

Kieltäkää tappajarobotit

Tappajarobottien kieltämistä ja niiden kehitystyön rajoittamista ja hillintää on käsitelty sekä YK:ssa että EU:n piirissä ja kansalaisjärjestöjen ja tutkijoiden kampanjat kuten Stop Killer Robots ovat vaatineet täydellistä kieltoa. 161 maata Suomi mukaan lukien on jo ilmaissut tukensa autonomisten aseiden kansainväliselle säätelylle. YK:n pääsihteeri on elokuussa 2024 julkaistussa raportissa kehottanut valtioita solmimaan oikeudellisesti sitovan sopimuksen autonomisten asejärjestelmien säätelemiseksi vuoteen 2026 mennessä.

Yleensä aseita on kielletty, kun katsotaan, että niistä aiheuttavan epäinhimillisiä kärsimyksiä tai käytön riskit ovat vaikeasti hallittavissa. Kieltojen piirissä ovat olleet maamiinat, ansat, polttotaisteluaineet ja sokaisulaserit. Näissä kieltotapauksissa on kysymys rajallisesta melko tarkkaan määritellystä teknologiasta. Tekoälyä sen sijaan voidaan liittää mihin tahansa teknologiaan. Läpäisevää teknologiaa on vaikea kieltää. 

Tappajarobotti voidaan määritellä tarkasti; tappokäskyä ei pidä jättää koneelle. Automaattista tappo- ohjelmaa robottiin ei saa asettaa.  Tämä on tärkeä tavoite, mutta ei kuitenkaan välttämättä takaa, ettei tappajarobotteja käytettäisi. Ihmiskäskyn nojalla toimiva laite on hyvin yksinkertaista muuttaa autonomiseksi. Lisäksi valvonta ei tule olemaan helppoa, koska autonomisia laitteita voidaan käyttää myös muissa tehtävissä kuin sotilaallisissa operaatioissa ja niiden lukumäärä tulee kasvamaan hyvin suureksi. 

Ongelmia syntyy silloinkin, kun robotti kysyy, voinko avata tulen. Kuinka hyvin ihminen voi arvioida, onko robotin ehdotus hyväksyttävä. Taistelutilanteessa tapahtumat etenevät äkillisesti ja päätöksentekoon liittyy epävarmuuksia ja päätös on tehtävä hyvin nopeasti. Pystyykö ihminen millään tällaisessa tilanteessa arvioimaan kriittisesti robotin ehdotusta. Todennäköisesti luotetaan, että laite on toiminut oikein ja näin käytännössä ei ole suurta eroa antaako ihminen tuhoamisluvan vai toimiiko robotti itsenäisesti. Robottiparven kanssa kommunikointi voi olla vielä hankalampaa. 

Autonomisille asejärjestelmille on esitetty eettisiä sääntöjä, joita ne ohjelmoitaisiin noudattamaan. Eettisten sääntöjen laatiminen on kuitenkin vaikeaa ihmisille saatikka sitten koneille. Tappajarobottien kieltämistä on joka tapauksessa perusteltu lähinnä eettisin syin. Tappamista ei pidä ulkoistaa koneen päätettäväksi. Se on moraalisesti ja humanitääristen syiden takia väärin. Tämä on selkeä ja hyvä tunnus, mutta ongelmana on, että se edelleen sallii tappamisen, kunhan tappaja on ihminen. 

Voidaan myös kyynisesti väittää, että yhtä tärkeää kuin kieltää tappajarobotit, olisi rakentaa robotit siten, että ne pystyisivät estämään ihmistä tekemästä taistelutilanteessa tappamispäätöksiä, jotka ovat kansainvälisten lakien vastaisia tai muuten epäinhimillisiä. Jos ihminen robotin esittämästä tappamiskiellosta huolimatta aikoo tietoisesti syyllistyä sotarikokseen, niin eikö olisi siitä moraalisesti oikein, että tällöin kone voisi tappaa tämän rikollinen ainakin niissä tapauksissa, joissa vaarana olisi kansanmurhan käynnistyminen. Ja joka tapauksessa on järkevää pohtia, kuinka roboteilla voitaisiin taistelutilanteissa suojata siviilejä ja estää liiallista voimakäyttöä.

Tällainen ajatuskoe osoittaa, kuinka monimutkaisiin eettisiin pohdiskeluihin aseita kantavat robotit meidät johdattelevat.