Kamppailu tekoälyn tulevaisuudesta kiihtyy – palturia puhuvat tekoälyt aiheuttavat päänvaivaa

Tekoäly oli vuoden 2023 lopun kuumia perunoita Atlantin valtameren molemmin puolin. 

Yhdysvalloissa teknologia-alaa ravisteli perinpohjaisesti marraskuussa puskan takaa julkisuuteen puhjennut valtataistelu yhdysvaltalaisen OpenAI-yrityksen sisällä. Suositun Chat GPT -kielimallin luoneen yhtiön toimitusjohtaja Sam Altman syrjäytettiin tilapäisesti paikaltaan OpenAI:n hallituksen päätöksellä, mutta hän palasi pian toimitusjohtajaksi.

Mediassa dramaattisia käänteitä on selitetty kamppailuna, jossa vastakkain ovat bisneshenkiset tekoälyoptimistit ja insinööritaustaiset pessimistit, jotka varoittavat vaarallisen supertekoälyn riskeistä.

Tasapainoilu tekoälyn taloudellisten hyötyjen ja mahdollisten vaarojen välillä on ollut haasteena myös tällä puolen valtamerta. Euroopan unioni saavutti pitkiksi venyneiden neuvottelujen jälkeen joulukuussa sovun tekoälyasetuksesta, jonka yksityiskohdat ovat vielä epäselviä.

Tiedossa on, että asetus luokittelee tekoälyjärjestelmät eri riskitasoille ja kieltää riskialtteimmat kokonaan. Mukaan kieltolistalle päätyivät muun muassa sosiaalisen pisteytyksen järjestelmät.

OpenAI hehkuttaa vaaroilla

Tekoälyllä pelottelevien ja sitä hehkuttavien retoriikka vaikuttaa OpenAI:n kohdalla mainospuheelta, arvioi STT:lle Helsingin yliopiston tekoälytutkija, tietojenkäsittelytieteen professori Hannu Toivonen.

– On vaikea lähteä arvailemaan, mitä siellä on tapahtunut, mutta OpenAI on ennenkin käyttänyt pelottelua markkinointikeinona.

Vuonna 2019 OpenAI sanoi sen silloisen GPT-2-mallin algoritmin olevan liian vaarallinen julkaistavaksi, koska se oli liian tehokas. Nykyisin käytössä on jo Chat GPT:n neljäs versio.

OpenAI julkaisi tässä kuussa varautumissuunnitelmansa tekoälyn "katastrofaalisten riskien" vähentämiseksi, uutisoi muun muassa CNN.

OpenAI perustettiin vuonna 2015 voittoa tavoittelemattomaksi tutkimuslaitokseksi. Sen yhteyteen pultattiin myöhemmin voittoa tavoitteleva tytäryhtiö. Toivosen mukaan on mahdollista, että johtoportaan välienselvittely liittyy jännitteisiin, jotka periytyvät perustamisen ajoilta.

– Se on hyvin mahdollista, koska ne ylevät tavoitteet, mitä alkuperäisellä säätiöllä oli, eivät kaikki ole sovussa kaupallisen toiminnan kanssa.

Koneiden äly herättää tunteita

Tekoäly on herättänyt voimakkaita tunteita Piilaakson eliitin parissa ja julkisessa keskustelussa. Osa uskoo tekoälyn mullistavan maailman ja johtavan ennennäkemättömään hyvinvointiin, toiset varoittavat koko ihmiskuntaa uhkaavien supertekoälyjen vaaroista.

– Koneiden älykkyys, tunteet, tietoisuus ja luovuus ovat ihmisille kiinnostavia aiheita. Niitä on pidetty inhimillisinä ominaisuuksina, jotka ovat koneelle saavuttamattomia. Kyllähän se on mielikuvitusta kiehtova ajatus, että koneet voivat vähän kerrallaan tällaisia kykyjä saavuttaa, Toivonen sanoo.

Toivonen on kirjoittanut aiheesta tänä vuonna julkaistun kirjan Mitä tekoäly on. Hänen mukaansa tekoäly on sanana kärsinyt inflaatiota.

– "Äly" sanassa "tekoäly" on hankala, koska älykkyyttä on ensinnäkin vaikea määritellä ja toiseksi se herättää helposti mielikuvia, jotka ei välttämättä ole hyödyksi, Toivonen sanoo.

Sekä tekoälyoptimistit että -pessimistit näyttävät uskovan tekoälyn voimaan, mutta myös skeptisempiä ääniä on kuultu teknologian katteettomista lupauksista. Joidenkin mielestä tekoälybuumissa on samoja piirteitä kuin 1990-luvun lopun dotcom-kuplassa.

Palturia puhuvat tekoälyt aiheuttavat päänvaivaa

Tekoälyn ilosanomaa ja tuomiopäivän visioita levittävien futuristien puheissa esiintyy usein kirjainyhdistelmä AGI, joka on kirjattu myös OpenAI:n peruskirjaan. Lyhenne on peräisin englannin sanoista artificial general intelligence, eli yleistekoäly.

–  Yleinen tekoäly tarkoittaa tietokoneohjelmaa, joka on älykkyydeltään ihmisen veroinen jokseenkin kaikissa asioissa, kertoo professori Hannu Toivonen.

Nyt käytössä olevat tekstiä, kuvia, ääntä ja videoita tuottavat mallit ovat vielä kaukana tällaisesta ohjelmasta, sillä ne eivät kykene esimerkiksi luovaan ongelmanratkaisuun. Ne eivät myöskään kykene erottamaan faktaa fiktiosta, sillä koneälyt eivät ymmärrä tuottamansa sisällön merkityksiä.

Keskustelevat ohjelmat levittävätkin usein käyttäjilleen täyttä puuta heinää, jonka ne kertovat itsevarmasti täytenä faktana.

Kielimallit eivät ymmärrä puheitaan

Esimerkiksi Times of Maltan kokeilussa sovellus kirjoitti kuvitteellisen elämäkerran tekaistuine lähdeviitteineen olemattomalle 1800-luvun maltalaiselle nationalistijohtajalle Xandru Borgille. Tiedelehti Naturen artikkelissa todettiin, että Chat GPT keksii säännöllisesti kuvitteellisia tai virheellisiä lähdeviittauksia tiedoilleen tiedekysymyksiin vastattaessa.

Tätä ilmiötä on kutsuttu tekoälyjen "hallusinoinniksi", eikä se välttämättä ole nykytekniikoilla ratkaistavissa.

– (Kielimallien) ongelmat eivät liity pelkästään faktuaalisiin virheisiin tai puutteelliseen tietoon vaan siihen, että ne eivät käsittele tekstin merkityksiä. Ne eivät ymmärrä maailmaa tai ihmisten elämää, joten nykyisellä tavalla tehdyt kielimallit tulevat aina tekemään virheitä, Toivonen sanoo.

Scifi-kirjallisuudesta tuttujen tiedostavien yleistekoälyjen luominen edellyttäisi Toivosen mukaan esimerkiksi sitä, että koneälyt oppisivat elämään todellisessa maailmassa vuorovaikutuksessa ihmisten kanssa. Koneälyt oppisivat siis ikään kuin ihmislapset.

Lue myös:

    Uusimmat