Alexa i imitiranje glasova voljenih osoba

PC Press 24.06.2022  |  Milan Živković
Alexa i imitiranje glasova voljenih osoba

Prodavci odavno igraju na emocije, pa klijente privlače različitim zamkama koje ih podsećaju na one koje vole, te na neki period života.

Amazon pokušava isto s novim opcijama za asistenta Alexa. U pitanju je deepfake opcija zahvaljujući kojoj će asistent moći da imitira glasove, te korisnicima ponudi Alexu koja zvuči kao voljena osoba, čak i ako ova više nije među živima. Za to je potreban tek kratak audio snimak, a pojedini opciju već dovode u pitanje, budući da tvrde da igra na kartu traume i patnje za onima koji su izgubili živote tokom pandemije. Na demo snimku može da se vidi dete dok razgovara

Pročitajte još

Ključne reči

Nauka & Tehnologija, najnovije vesti »