Alexa i imitiranje glasova voljenih osoba
PC Press 24.06.2022 | Milan Živković
Prodavci odavno igraju na emocije, pa klijente privlače različitim zamkama koje ih podsećaju na one koje vole, te na neki period života.
Amazon pokušava isto s novim opcijama za asistenta Alexa. U pitanju je deepfake opcija zahvaljujući kojoj će asistent moći da imitira glasove, te korisnicima ponudi Alexu koja zvuči kao voljena osoba, čak i ako ova više nije među živima. Za to je potreban tek kratak audio snimak, a pojedini opciju već dovode u pitanje, budući da tvrde da igra na kartu traume i patnje za onima koji su izgubili živote tokom pandemije. Na demo snimku može da se vidi dete dok razgovara