Tekoäly mahdollistaa entistä raadollisempia kiristyksiä: "Kun hätääntynyt vanhempi saa avunpyynnön, joka kuulostaa omalta lapselta..."

Tietoturva-asiantuntijat ovat huolissaan siitä, miten nopeasti deepfake-videot eli syväväärennökset leviävät, ja kuinka helposti ne ovat kaikkien saatavilla. 

Väärin käsiin joutuessaan sosiaaliseen mediaan postattua kuvaa, videota tai ääntä voidaan käyttää rikollisiin tarkoituksiin – tekoälyn avulla. 

Tietoturva-asiantuntija Petteri Järvisen mukaan sosiaalinen media on aarreaitta verkkorikollisille.

– Tekoälyn avulla näistä voidaan luoda esimerkiksi huijaussoittoja, erilaisia kiristysviestejä ja väärennettyjä kalasteluviestejä, Järvinen kertoo. 

Erityisen haavoittumassa asemassa ovat lapset ja nuoret. Maailmalla on jo esimerkkejä tapauksissa, joissa lasten tai nuorten kuvia on käytetty kiristystarkoituksiin. 

Tekoäly tekee digihuijauksista vaikeammin tunnistettavia 7:29
Tekoäly tekee digihuijauksista vaikeammin tunnistettavia.

Deepfake eli syväväärennös kiristysvälineenä

Verkossa havaittujen deepfake-videoiden määrä on kasvanut 550 prosentilla vuodesta 2019 vuoteen 2023. 

Kasvu on räjähdysmäistä ja suosion syynä on se, että tekoälyn tarjoamat työkalut ovat kaikkien saatavilla. 

Kyberturvallisuuskeskuksen mukaan syväväärennökset ovat rikollisille työkalu, siinä missä esimerkiksi kaapattu sähköpostitilikin. 

– Syväväärennettyjen videoiden avulla voidaan tehtailla entistä raadollisempia kiristyksiä, kun periaatteessa mihin tahansa videoon voidaan vaihtaa kenen tahansa kasvot, Kyberturvallisuuskeskus painottaa. 

Alla olevalla Kyberturvallisuuskeskuksen videolla esitellään, miten teknologia mahdollistaa yhä petollisemman harhaanjohtamisen kyberhuijauksien ja informaatiovaikuttamisen apuvälineenä.

"Suomi ei ole mitenkään suojassa tämän tyyppisiltä huijauksilta"

Kyberturvallisuuskeskuksen tietoon ei ole toistaiseksi tullut tapauksia, joissa deepfake-videoita tai -ääntä olisi käytetty huijaustarkoituksiin Suomessa.

– Kyllä ne jossain vaiheessa yleistyvät. Suomi ei ole mitenkään suojassa tämän tyyppisiltä huijauksilta, erityisasiantuntija Juha Tretjakov sanoo.

Kuten maailman esimerkit ovat näyttäneet, tekniikka tällaisiin huijauksiin on olemassa. 

Tretjakovin mukaan verkkorikollisilla on kuitenkin helpompia keinoja, joita ensisijaisesti käytetään esimerkiksi kiristystarkoituksiin.  

Huijarit tuskin käyttävät deepfakea ensimmäisten joukossa, sillä samaan lopputulokseen päästään esimerkiksi tekstiviestejä käyttämällä, Tretjakov huomauttaa.

Lapset ja nuoret haavoittuvassa asemassa 

Siitä huolimatta, että deepfake-huijaukset eivät vielä ole Suomessa kovin yleisiä, tietoturva-asiantuntijat uskovat ilmiön kasvavan myös Pohjolassa. 

Asiantuntijat muistuttavatkin, että vanhempien kannattaa harkita tarkkaan, mitä materiaalia sosiaaliseen mediaan jakaa alaikäisistä lapsistaan. 

Lapsen, ja kenen tahansa muun, identiteetin varastaminen someen postattujen kuvien avulla on nykyteknologiaa hyödyntämällä mahdollista.

– Se on konkreettinen uhka, joka jossain vaiheessa varmasti yleistyy, Digi- ja väestötietoviraston johtava erityisasiantuntija Kimmo Rousku pohtii.

Someen postattu sisältö omasta lapsesta voi kääntyä vanhempaa itseään vastaan verkkorikollisten käsissä.

Vanhemmat voivat esimerkiksi saada "lapseltaan" ääniviestin tai syväväärennösvideon, jossa lapsi on hädässä.

– Kun hätääntynyt vanhempi saa avunpyynnön, joka näyttää aivan aidolta ja kuulostaa omalta lapselta, silloin houkutus langeta tällaiseen huijaukseen on paljon suurempi kuin jos olisi kyse pelkästä tekstiviestistä, Järvinen sanoo.

Järvinen kehottaa perheitä miettimään valmiiksi salasanan, jonka avulla voidaan tarvittaessa varmistaa materiaalin aitous.

– Jonkinlainen salasana tai helppo kysymys, jota ei voi sosiaalisesta mediasta selvittää. Esimerkiksi, mitä söimme aamupalaksi, mikä oli mummin lempinimi lapsena, tai mitä sait viime jouluna lahjaksi, Järvinen ehdottaa. 

Myös Rouskun mukaan huomiota pitäisi jatkossa kiinnittää siihen, miten materiaalin aitous voidaan varmistaa.

– Suurin haaste on se, miten videoille saadaan luotua varmenne tai muu tekninen menetelmä, jolla voidaan todistaa materiaalin aitous, Rousku sanoo.

Tulevaisuuden tekoälyyn liittyvistä haasteista kertoo myös se, että EU haluaa säännöstellä tekoälyn käyttöä. EU:n päättäjät pääsivät viime viikolla alustavaan sopuun asetuksesta, jolla säännöstelyyn pyritään. 

Lue myös:

    Uusimmat