В понеделник OpenAI се похвалиха, че техният ChatGPT вече може да „вижда, чува и говори“. ИИ вече няма да бъде ограничен до текстови съобщения, а ще разбира произнесени от човек думи, ще отговаря със синтетичен глас и ще обработва и анализира изображения получени от потребителите.
Актуализацията на ChatGPT e най-голямата от представянето на GPT-4 насам и позволява на потребителите да се включат в гласови разговори в мобилното приложение на ChatGPT и да избират измежду пет различни синтетични гласа, с които ботът да отговаря.
Потребителите също така ще могат да споделят изображения с ChatGPT и да водят разговор за тях. Представете си математическа задача, която трябва да решите или туристически обект, за които искате да научите повече. Просто снимате, изпращате и задавате въпроса си.
Вълнуващите нови възможности ще бъдат разпространени само сред потребители, които плащат за ChatGPT Plus, като това се очаква да стане през следващите две седмици. Гласовата функционалност ще бъде ограничена до приложенията за iOS и Android, а възможностите за обработка на изображения ще бъдат достъпни на всички платформи.
Експертите изразяват загриженост относно синтетичните гласове, генерирани от изкуствен интелект, които в този случай биха могли да позволят на потребителите по-естествено изживяване, но също така и по-убедителни фалшификации. Изследователите в областта на компютърната сигурност са притеснени и за това как OpenAI ще използва гласовите данни на потребителите и как компанията ще защити тези данни от киберпрестъпниците, ако ги записва и използва за обучение на моделите си.
От OpenAI са коментирали пред CNBC, че системите на фирмата не запазват аудиоклипове и че самите аудиоклипове не се използват за подобряване на моделите. От фирмата са уточнили, че транскрипциите на разговорите се считат за входни данни и могат да се използват за подобряване на ChatGPT.
GIPHY App Key not set. Please check settings