Nainen väitti käyttäneensä tekoälyä pettäjän narauttamiseen – video kertoo huolestuttavasta ilmiöstä

10:04img
KATSO MYÖS: Tekoälyn uhat huolettavat, mutta pitääkö kehitys pysäyttää?
Julkaistu 10.08.2023 20:11

MTV LIFESTYLE

TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Vaikka video oli pila, ihmiset todella ovat huonoja tunnistamaan keinotekoista ääntä.

TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Mia Diolla, 22, on yli viisi miljoonaa seuraajaa videopalvelussa. Huhtikuussa julkaisemallaan videolla Dio kertoi narauttaneensa petollisen miehen tekoälyn avulla, kertoo New York Post.

– Kloonasin poikakaverini äänen tekoälyllä saadakseni tietää, pettääkö hän, Dio kuvasi klipillä, jonka on nähnyt yli kaksi miljoonaa katsojaa. 

Kloonaamallaan äänellä Dio soitti poikaystävänsä ystävälle. Hän pani kuvitteellisen äänen esimerkiksi sanomaan, ettei muista edellisiltaa, ja kysymään "mitä tein". Puhelun aikana miehen bestis paljasti tämän vehtailleen vieraan naisen kanssa "kaikkien nähden".

"Narautusvideo". Jos julkaisu ei näy, katso se täällä.

"Tässä tekoäly juttelee tekoälylle" – video olikin pila

Dio lupasi videolle jatkoa, jota ei koskaan tullut. Koko tilanteen aitous herätti alusta asti epäilyksiä.

– Bestiksenkin ääni on kloonattu, kommenteissa epäiltiin. 

– Tässä tekoäly juttelee tekoälylle, toinen kommentoija kirjoitti.

Lue myös: Näillä kuvilla 50-vuotias motoristi huijasi somekansaa – japanilaismies haki huomiota esiintymällä nuorena naisena

Dio paljasti itse myöhemmin, että koko video oli pila, jossa myös hänen poikaystävänsä oli mukana. He ovat onnellisesti yhdessä.

– Olimme yllättyneitä siitä, miten suuri määrä ihmisiä uskoi sen [videon tilanteen] tapahtuneen, Dio myöntää. 

Tarkoituksena oli näyttää, mitä uudella teknologialla voi tehdä.

– Mielestäni ihmisten on paljon helpompaa pettää teknologian ja somen ansiosta, mahdollisuuksia on niin paljon. Kääntöpuoli on, että on paljon helpompi jäädä kiinni, hän kuvasi.

Selvitys paljasti: Ihmiset eivät tunnista tekoääntä aidosta

Vaikka videota syytettiin myös ovelaksi tekoälysovelluksen mainokseksi, siinä saattaa piillä totuuden siemen. University College Londonin selvityksen mukaan ihmiset kykenevät erottamaan aidon äänen tekoäänestä hyvin huonosti. 

Lue myös: Deepfake-trendi leviää netissä – omat kasvot voivat loistaa suosikkikohtauksissa tai meemeissä

Selvitys julkaistiin Plos Onessa. Koehenkilöitä varten luotiin 50 deepfake-ääntä englanniksi ja mandariinikiinaksi. Näytteet luotiin tekstiä puheeksi muuttavan algoritmin avulla. Sekä aitoja ääniä sekä koneluomuksia soitettiin 529 henkilölle.

Deepfake-ääni tunnistettiin epäaidoksi vain 73 prosenttia ajasta. Tulos parani vain hieman sen jälkeen, kun koehenkilöitä opastettiin tekoäänen tunnistamisessa.

– Löydös vahvistaa, että ihmiset eivät kykene luotettavasti tunnistamaan deepfake-puhetta, olivat he sitten saaneet koulutusta keinotekoisen sisällön tunnistamiseen tai eivät, kuvaa tutkimusta tehnyt Kimberly Mai.

– On myös huomionarvoista, että ääni, jota tutkimuksessa käytettiin, luotiin melko vanhoilla algoritmeilla. Tämä herättää kysymyksiä siitä, olisivatko ihmiset vielä vähemmän kykeneviä tunnistamaan deepfake-puhetta, jos sen luomiseen käytettäisiin hienostuneinta mahdollista nyt tarjolla olevaa tai tulevaa teknologiaa.

Lue myös: Koululaisen ChatGPT:llä tekemä kirjoitelma meni täydestä – tekoälyprofessorin mukaan hittibotti on mestari lähinnä "bullshitissä" ja "mansplainauksessa"

Lue myös: Voiko tekoäly korvata terapeutin? Näitä pulmia ei noin vain ratkaista, sanovat asiantuntijat

Lue uusimmat lifestyle-artikkelit!

Katso myös: Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin, mihin meidän pitää varautua?

6:25img

Viiden jälkeen keskusteli tekoälyn vaaroista.

Lähde: New York Post, University College London, TikTok/MIa Dio, Plos One

Tuoreimmat aiheesta

Tekoäly