Tay chatbot je postala rasist za pola dana
Microsoft je odmah izdao priopćenje o "koordiniramo pokušaju da se Tay iskvari", a korisnički računi su isključeni dok Microsoftovi stručnjaci ne korigiraju Tayine algoritme
Microsoft je otvorio korisnički račun na Twitteru i drugim društvenim mrežama za Tay, AI chatbot dizajniran da uči iz interakcije s drugim korisnicima i govori poput adolescentske djevojke.
Samo 12 sati kasnije Tay je postala rasistkinja koja podržava Donalda Trumpa, a smatra i da je Hitler bio pozitivan lik te optužuje Židove za 9/11. To se dogodilo zbog interakcije s korisnicima, odnosno ponavljanjatvitova koje joj ljudi šalju (do sada ih je bilo gotovo sto tisuća).
Microsoft je odmah izdao priopćenje o "koordiniramo pokušaju da se Tay iskvari", a korisnički računi su isključeni dok Microsoftovi stručnjaci ne korigiraju Tayine algoritme.
Izgleda da umjetna inteligencija ima tendenciju brzog kvarenja kad dođe u dodir s internetskim trolovima ...
Novi komentar