Hollannin entisen puolustusministerin Kajsa Ollongrenin mielestä tekoälyn käyttö sodankäynnissä vaatisi omaa sääntelyä. Ulkoministeri Elina Valtonen arvioi kansainvälisen oikeuden ajavan saman asian.
Kun tekoälyteknologiaan pääsee käsiksi, sitä on helppo monistaa eteenpäin. Siinä piilee tekoälyn selkeä riski verrattuna ydinaseisiin, sanoo Kajsa Ollongren, joka toimi Hollannin puolustusministeriä Mark Rutten hallituksessa vuosina 2022–2024, ja sitä ennen sisäministerinä vuosina 2017–2022.
– Ja sitten kyseinen teknologia voi päätyä pahansuopien toimijoiden haltuun, joko valtiollisten tai ei-valtiollisten, hän huomauttaa MTV Uutisille.
Terroristit ja tekoälyä hyödyntävät aseet ovat huono yhdistelmä.
Ydinaseet ovat äärimmäisen tuhovoimaisia, mutta ainakin ne ovat monimutkaisia, kalliita ja hitaita valmistaa. Niitä on kieltosopimuksella onnistuttu rajoittamaan. Nyt keskustelua pelisääntöjen tarpeesta käydään myös tekoälyä käyttävistä asejärjestelmistä.
Ollongren siteeraa muita asiantuntijoita, jotka kutsuvat nykyhetkeä oman aikakautemme "Oppenheimer-hetkeksi". Tekoälyn siivittämänä voidaan saavuttaa globaalia turvallisuutta muovaavia keksintöjä, kuten J. Robert Oppenheimer atomipommin keksiessään toisen maailmansodan aikaan. Niihin liittyvät myös omat riskinsä.
11:04Katso myös Huomenta Suomen keskustelu: Näin tekoäly ja digitalisaatio mullistavat sodankäyntiä.
Tekoälyn sääntely on tasapainoilua
Ollongren vieraili Suomessa maaliskuun puolivälissä ulkoministeriön järjestämässä Tekoäly ja turvallisuus -keskustelutilaisuudessa. Aalto-yliopistolla järjestetyissä keskustelupaneeleissa tekoälyn sääntely ja sen mahdollinen tarve nousi esiin useasti.
Yleisesti ottaen yritysmaailma toivoo tekoälysääntelyn keventämistä, jotta tuottavuus kasvaisi ja bisnes kukoistaisi. Tapahtumaan osallistuneen Nokian toimitusjohtajan Pekka Lundmarkin mielestä eurooppalaisia yrityksiä on kohdannut viime vuosina "säätelytsunami".
– Onneksi uusi EU-komissio on tarttumassa asiaan ja on luvannut yksinkertaistaa säätelyä, Lundmark sanoo.
Lundmarkin mukaan ensimmäisenä Eurooppaan tulisi saada yhtenäiset digitaaliset sisämarkkinat ja niiden liittyvää säätelyä tulisi yksinkertaistaa.
Tekoälyä koskevasta teknologiakehityksestä suurin osa tapahtuu yrityksissä, joista ne rantautuvat varsin nopeasti kaksikäyttötuotteisiin ja sotateollisuuteen. Siksi yritysten ja asevoimien raja on välillä häilyvä.
Tiedonkulku on osa turvallisuutta ja kriittistä infrastruktuuria, ja sen merkitys korostuu kriisiaikana. Ulkoministeri Elina Valtosen (kok.) mukaan on merkittävää, että Nokia yhtenä maailman johtavista verkkoyrityksistä sijaitsee nimenomaan Suomessa.
Myös Valtosen mielestä tekoälyn käyttöä säädellään monella sektorilla liikaa, niin Suomessa kuin Euroopassakin. Se heijastuu yritystoimintaan, riskinottoon, pääomien hallintaan ja vaurastumiseen.
– Ehkä pitäisi ottaa askel taaksepäin, ettei vaan luoda ylimääräistä byrokratian kerrosta. Tulee miettiä sitä, että suojellaan ihmistä ja ihmisen oikeutta yksityiseen dataansa, Valtonen perustelee näkemystään.
Sääntelyllä ei siis tulisi tukahduttaa innovaatioita.
Esimerkiksi EU:n tekoälysäädös astui voimaan kesällä 2024. Se kieltää joidenkin tekoälyn muotojen käytön kokonaan ja vaatii läpinäkyvyyttä. Sen myötä esimerkiksi niin kutsuttu sosiaalinen pisteytys tekoälyllä on kielletty ja ihmisten valvonta julkisilla paikoilla tekoälyn keinoin rajoitettu.
Algoritmia ei voi syyttää sotarikoksista
Kun keskustelun painopiste siirtyy tekoälyn käyttöön aseteollisuudessa, myös kysymys sääntelyn tarpeesta muuttuu monimutkaisemmaksi.
Sääntelyä haastaa teknologioiden nopea kehitys. Puolustusteollisuudessa tekoälykehityksen vauhti on kiihtynyt entisestään Venäjän hyökkäyssodan aikana.
– Nopeus, jolla Ukrainan asevoimat on kyennyt kehittämään, käyttämään, muovaamaan ja käyttämään uudelleen teknologioitaan on vaikuttavaa. Ajattelemme nyt viikoissa, kun tavallisesti asejärjestelmien kehityksessä ajatellaan vuosia eteenpäin, Ollongren toteaa.
Tekoälyä voi käyttää hyödyksi miinanraivaukseen, tai omien sotilaiden ja siviilien suojaamiseen. Eikä tekoäly sodankäynnissä ole ainoastaan algoritmin käskyttämiä aseita, vaan myös tiedustelua, valvontaa ja informaatiosodankäyntiä.
Mutta väärin käytettynä tekoäly voi olla vaaraksi muillekin kuin sotilaille. Esimerkiksi Israelin on raportoitu käyttäneen tekoälyä apunaan, kun se on paikantanut iskujensa kohteita Gazassa. Iskuissa on kuollut myös siviilejä.
– Silloin joko asejärjestelmä ei ole ollut riittävän hyvä tai algoritmien ohjelmoinnissa on epäonnistuttu. Iskujen tulee olla niin tarkkoja, etteivät siviilit jää kohteiksi, Ollongren toteaa.
Valtonen katsoo, että sääntöpohjainen maailmanjärjestys, kansainvälinen oikeus ja erityisesti humanitaarinen oikeus luovat hyvät raamit silloinkin, kun tekoäly on mukana sodankäynnissä. Sodan lait ovat olemassa riippumatta siitä, millaisia aseita käytetään.
– Nykyisin voi olla vaikea tehdä eroa, kuka tekee päätöksen: onko se tekoäly, ihminen vai joku näiden kombinaatio. Mutta vastuu siitä, kuka viime kädessä tekee päätöksen, on aina meillä ihmisillä, Valtonen sanoo.
Kenellä vastuu sotarikoksista?
Selvää on, että algoritmia ei voi tuoda tuomioistuimeen ja syyttää sotarikoksista. Mutta kuka sitten?
Samantapaisia eettisiä kysymyksiä on ilmoilla esimerkiksi tekoälyllä liikkuvien autojen suhteen. Kenelle kuuluu vastuu, jos ilman kuljettajaa ajava auto törmää ihmiseen?
Kajsa Ollongrenin mielestä tekoälysodankäynti vaatisi erillistä sääntelyä, jotta turhilta siviiliuhreilta vältyttäisiin ja vastuunkanto selkeytyisi. Samanaikaisesti hän tiedostaa, että tämänhetkisessä geopoliittisessa tilanteessa se on äärimmäisen hankalaa.
Tällä hetkellä Euroopalle kaikista suurin tekoälyyn liittyvä turvallisuusriski onkin kilpailijoista jälkeen jääminen. Se, että ei kehitetä omia kyvykkyyksiä riittävän nopeasti.
– Kiina investoi massiivisesti ja heidän datakeskuksensa ovat valtavia. Yhdysvalloilla on etunaan helpompi rahoituksen saaminen ja osaajien määrä, Ollongren sanoo.
– Kysymys kuuluu, voimmeko me Euroopassa kiriä ja nousta globaaliksi toimijaksi tekoälyn saralla?