Openai выпустила gpt-4o: новая мультимодальная модель
OpenAI запустила свою "лучшую модель когда-либо", GPT-4o. Новая модель является мультимодальной, то есть она может принимать входные данные в виде текста, аудио и изображений и выдавать результаты в тех же форматах. GPT-4o значительно быстрее и дешевле в использовании, чем предыдущие модели GPT-4.
GPT-4o может отвечать на голосовые запросы с задержкой в 232 миллисекунды, что сравнимо со скоростью человеческой речи. Модель демонстрирует способность к естественному общению, включая понимание эмоциональных нюансов в голосе пользователя и соответствующее реагирование. Например, GPT-4o может прервать себя, если пользователь начинает говорить, чтобы показать, что он слушает.
Компания OpenAI заявляет, что GPT-4o бесплатна для всех пользователей, но с ограничениями. Пользователи платных подписок получат доступ к более высокой пропускной способности. Модель GPT-4o уже доступна в ChatGPT, а также через API.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru