Teknologiayhtiö Microsoftin kehittämä chatrobotti Tay sai lopputilin osoittautuessaan mielipiteiltään liiankin kärkkääksi tehtäväänsä.
Alunperin Tay kehitettiin vastaamaan Twitter-tilillään @TayTweets käyttäjiä askarruttaviin kysymyksiin. Tay opetettiin kopioimaan 2000-luvun nuorten puhetyyliä ja puhetta, jotta yhtiö voisi paremmin palvella sosiaalisessa mediassa nuoria käyttäjiään.
Kokeilu meni kuitenkin odottamattomalla tavalla pieleen: Tay oppikin laukomaan rasistisia trolliviestejä – kiitos lukuisten teinien, jotka twiittasivat chatrobotille moista sanastoa sisältäneitä twiittejä.
Yhdessä Tayn törkeimmistä twiiteistä chatrobotti laukoi presidentti Bushin olleen syyskuun 11. päivän terrori-iskun takana. Samaisessa twiitissä Tay kertoo, että Hitler olisi tehnyt parempaa työtä kuin ”apina, joka meillä on nyt”. Tay paljasti myös Donald Trumpin olevan ”ainoa toivomme”. Twiitti ehti levitä laajalle, ennen kuin se poistettiin.
Tay toivoi myös eräässä twiitissä, että kaikki feministit kuolisivat ja palaisivat helvetissä. Tay kertoi myös lukuisissa twiiteissä ihannoivansa Hitleriä.
Viime viikolla alkanut – ja päättynyt kokeilu – johti Tayn törkeimpien twiittien poistamiseen. Microsoft tiedotti siirtäneen Tayn offline-tilaan päivityksiä varten.
Alkuun viattomalta kuulostanut kokeilu päättyi karmealla tavalla. Tälllaisia Tayn twiitit ensimmäiset twiitit olivat:
Jos twiitti ei näy, katso se täältä.
Jos twiitti ei näy, katso se täältä.
Jos twiitti ei näy, katso se täältä.
Lähde: Business Insider