Eksperiment Krenuo Po Zlu: Robot na Tviteru postao rasista za manje od 24 sata

Kurir 25.03.2016
Eksperiment Krenuo Po Zlu: Robot na Tviteru postao rasista za manje od 24 sata

Kompanija Majkrosoft je želeći da razume komunikaciju na društvenim mrežama stvorila softver koji uči od korisnika, oponašajući jezik koji koriste.

Međutim, jedan dan pošto je predstavljen inteligentni robot za čet na Tviteru bili su prisiljeni da ga privremeno ugase. Umesto da bude bezazlena tinejdžerka, bot je postao zli nacista koji promoviše incest i tvrdi da Buš stoji iza 11. septembra, prenosi britanski Telegraf. Bot "@TayandYou" je za manje od 24 sata počeo da piše toliko uvredljive komentare, da je kompanija morala da mu ukine mogućnost pisanja tvitova i u međuvremenu

Pročitajte još

Ključne reči

Komentari

Svet, najnovije vesti »