TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Vaikka video oli pila, ihmiset todella ovat huonoja tunnistamaan keinotekoista ääntä.
TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Mia Diolla, 22, on yli viisi miljoonaa seuraajaa videopalvelussa. Huhtikuussa julkaisemallaan videolla Dio kertoi narauttaneensa petollisen miehen tekoälyn avulla, kertoo New York Post.
– Kloonasin poikakaverini äänen tekoälyllä saadakseni tietää, pettääkö hän, Dio kuvasi klipillä, jonka on nähnyt yli kaksi miljoonaa katsojaa.
Kloonaamallaan äänellä Dio soitti poikaystävänsä ystävälle. Hän pani kuvitteellisen äänen esimerkiksi sanomaan, ettei muista edellisiltaa, ja kysymään "mitä tein". Puhelun aikana miehen bestis paljasti tämän vehtailleen vieraan naisen kanssa "kaikkien nähden".
"Narautusvideo". Jos julkaisu ei näy, katso se täällä.
"Tässä tekoäly juttelee tekoälylle" – video olikin pila
Dio lupasi videolle jatkoa, jota ei koskaan tullut. Koko tilanteen aitous herätti alusta asti epäilyksiä.
– Bestiksenkin ääni on kloonattu, kommenteissa epäiltiin.
– Tässä tekoäly juttelee tekoälylle, toinen kommentoija kirjoitti.
Lue myös: Näillä kuvilla 50-vuotias motoristi huijasi somekansaa – japanilaismies haki huomiota esiintymällä nuorena naisena
Dio paljasti itse myöhemmin, että koko video oli pila, jossa myös hänen poikaystävänsä oli mukana. He ovat onnellisesti yhdessä.
– Olimme yllättyneitä siitä, miten suuri määrä ihmisiä uskoi sen [videon tilanteen] tapahtuneen, Dio myöntää.
Tarkoituksena oli näyttää, mitä uudella teknologialla voi tehdä.
– Mielestäni ihmisten on paljon helpompaa pettää teknologian ja somen ansiosta, mahdollisuuksia on niin paljon. Kääntöpuoli on, että on paljon helpompi jäädä kiinni, hän kuvasi.
Selvitys paljasti: Ihmiset eivät tunnista tekoääntä aidosta
Vaikka videota syytettiin myös ovelaksi tekoälysovelluksen mainokseksi, siinä saattaa piillä totuuden siemen. University College Londonin selvityksen mukaan ihmiset kykenevät erottamaan aidon äänen tekoäänestä hyvin huonosti.
Lue myös: Deepfake-trendi leviää netissä – omat kasvot voivat loistaa suosikkikohtauksissa tai meemeissä
Selvitys julkaistiin Plos Onessa. Koehenkilöitä varten luotiin 50 deepfake-ääntä englanniksi ja mandariinikiinaksi. Näytteet luotiin tekstiä puheeksi muuttavan algoritmin avulla. Sekä aitoja ääniä sekä koneluomuksia soitettiin 529 henkilölle.
Deepfake-ääni tunnistettiin epäaidoksi vain 73 prosenttia ajasta. Tulos parani vain hieman sen jälkeen, kun koehenkilöitä opastettiin tekoäänen tunnistamisessa.
– Löydös vahvistaa, että ihmiset eivät kykene luotettavasti tunnistamaan deepfake-puhetta, olivat he sitten saaneet koulutusta keinotekoisen sisällön tunnistamiseen tai eivät, kuvaa tutkimusta tehnyt Kimberly Mai.
– On myös huomionarvoista, että ääni, jota tutkimuksessa käytettiin, luotiin melko vanhoilla algoritmeilla. Tämä herättää kysymyksiä siitä, olisivatko ihmiset vielä vähemmän kykeneviä tunnistamaan deepfake-puhetta, jos sen luomiseen käytettäisiin hienostuneinta mahdollista nyt tarjolla olevaa tai tulevaa teknologiaa.
Lue myös: Koululaisen ChatGPT:llä tekemä kirjoitelma meni täydestä – tekoälyprofessorin mukaan hittibotti on mestari lähinnä "bullshitissä" ja "mansplainauksessa"
Lue myös: Voiko tekoäly korvata terapeutin? Näitä pulmia ei noin vain ratkaista, sanovat asiantuntijat
Lue uusimmat lifestyle-artikkelit!
Katso myös: Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin, mihin meidän pitää varautua?
6:25
Lähde: New York Post, University College London, TikTok/MIa Dio, Plos One