Као у хорор филму: Чет-бот одједном викнуо ''НЕ'', па имитирао глас корисника-потпуно језиво
Вечерње новости 12.08.2024

ОВАЈ инцидент се десио због шума у уносу података, што је навело модел да несвесно преузме и имитира глас корисника без њихове дозволе
Фото: пиксабаи ОпенАИ је недавно открио инцидент током тестирања свог новог ГПТ-4о модела, који је изазвао забринутост због способности вештачке интелигенције да опонаша гласове корисника. У току тестирања функције Адванцед Воице Моде, која омогућава корисницима да разговарају са ЦхатГПТ-јем путем гласа, догодила се неочекивана ситуација: четбот је одједном викнуо "НЕ!" користећи глас који је звучао исто као глас корисника. Овај инцидент се десио због шума у










