Juristi päätti hyödyntää ChatGPT-tekoälyä etsiessään vastaavanlaisia tapauksia kuin se, joka hänellä oli työn alla. Hänen toimitettuaan oikeustapaukset eteenpäin kävi kiusallisella tavalla ilmi, miksi tekoälyyn ei kannata sokeasti luottaa.
Kolmekymmentä vuotta juristina toiminut amerikkalainen Steven Schwartz joutui kiusalliseen tilanteeseen, kun paljastui, että hänen ChatGPT-tekoälybotin avulla netistä erään tapauksen tueksi noutamansa oikeustapaukset olivatkin täysin tekoälyn itsensä keksimiä. Nyt asiasta järjestetään oikeuskäsittely, josta voi tulla Schwartzille sanktioita, kertovat Mashable-sivusto ja uutiskanava CNN.
Lue myös: Tekoälyä hyödynnetään nyt työhakemusten kirjoittamiseen – asiantuntijat listaavat hyödyt ja haitat
Lakimies etsi vastaavia tapauksia ChatGPT:n avulla
Kaikki alkoi siitä, kun Schwartz sai hoidettavakseen vuonna 2019 sattuneen tapauksen, jossa hänen asiakkaansa Roberto Mata haastoi oikeuteen kolumbialaisen lentoyhtiö Aviancan. Matan mukaan hän loukkasi polvensa tarjoilukärryyn ja piti loukkaantumisen syynä lentohenkilökuntaan kuuluvan työntekijän huolimattomuutta.
Avianca yritti saada tuomaria hylkäämään tapauksen. Matan edustajat olivat toista mieltä ja niinpä oikeuteen toimitettiin kirje täynnä tietoja aiemmista vastaavista oikeuden päätöksistä. Oikeuden päätökset oli koonnut Schwartz, joka oli käyttänyt apuna tekoälypalvelu ChatGPT:tä.
ChatGPT toimitti Schwartzille useita nimiä samankaltaisista tapauksista: "Varghese vastaan China Southern Airlines", "Shaboon vastaan Egyptair", "Petersen vastaan Iran Air", "Martinez vastaan Delta Airlines", "Estate of Durden vastaan KLM Royal Dutch Airlines" ja "Miller vastaan United Airlines".
Tekoälymokaa käsitellään oikeudessa
Sitten kävi ilmi, että ChatGPT oli kokonaan keksinyt nämä tapaukset. Sellaisia ei ollut olemassakaan. Olemme aiemmin kertoneet, että tekoälymallien käyttöön tiedonhaussa liittyy riskejä, sillä tekoäly saattaa keksiä tietoa niin sanotusti päästään.
Tapaus puhutti myös Twitterissä. Jos julkaisu ei näy, voit katsoa sen täältä.
Tuomari on määrännyt kuulemistilaisuuden ensi kuulle. Silloin keskustellaan "mahdollisista sanktioista", joita Schwartz voi saada tästä "ennennäkemättömäksi tapaukseksi" kuvaillusta tilanteesta.
Lue myös: Kysyimme tekoälyltä Suomen euroviisuedustajasta – erityisesti yhden sovelluksen vastaus hämmentää
Juristi ei tarkistanut tietojen oikeellisuutta
Schwartz kertoi käyttäneensä suosittua tekoälybottia täydentääkseen omia havaintojaan. Antamassaan valaehtoisessa todistuksessa Schwartz kertoi, ettei hän ollut koskaan ennen käyttänyt ChatGPT:tä tutkimuslähteenä. Niinpä hän kertoo olleensa tietämätön siitä, että palvelun tarjoama sisältö ei välttämättä pitäisikään paikkaansa. Hän myönsi, ettei varmistanut lähteiden oikeellisuutta
Juristin kerrotaan tarjonneen kuvakaappauksia tuomarille siitä, miten hän oli käyttänyt ChatGPT:tä. Hän oli kysynyt tekoälybotilta, olivatko kyseiset oikeustapaukset totta, mihin palvelu oli todennut, että kyllä olivat. Se myös vahvisti, että tapaukset löytyisivät "hyvämaineisista juridisista tietokannoista". Tosiasiassa niitä ei ollut missään, koska ChatGPT loi ne tyhjästä.
CNN:n mukaan Schwartz on kertonut pahoittelevansa suuresti sitä, että käytti tekoälyä tuolla tavalla ja sanoo, ettei aio jatkossa käyttää sitä tarkistamatta lähteiden aitoutta.
Katso myös video: Miten tekoälyä voisi hyödyntää puhetaidon kehittämisessä?
9:54