Компания OpenAI презентовала последнюю модель чат-бота под названием GPT-4o. Нейросеть стала «более человечной» и научилась воспринимать визуальные данные.
ИИ-инструмент «особенно лучше понимает видео и звук по сравнению с существующими моделями». Функция включает в себя распознавание эмоций и ритма дыхания.
Дополнением чат-бота также стал полноценный Voice Mode для голосового взаимодействия.
Согласно презентации, продукт может помогать пользователям в различных бытовых вопросах, например в подготовке к собеседованию. В OpenAI также показали, как GPT-4o звонит в службу поддержки для замены iPhone.
Другие примеры продемонстрировали, что нейросеть умеет рассказывать «отцовские шутки», переводить разговор на двух языках в реальном времени, судить игру в «камень-ножницы-бумага» и отвечать сарказмом.
В OpenAI заявили, что буква «o» в GPT-4o означает слово «omni», которое символизирует шаг к более естественному взаимодействию человека с компьютером.
GPT-4o «намного быстрее и «на 50% дешевле», чем GPT-4 Turbo. Нейросеть отвечает на аудиозапрос за 2,3 с. Среднее время генерации чат-бота составляет 3,2 с, что сопоставимо со временем реакции человека в обычном разговоре, подчеркнули в OpenAI.
Версию нейросети для ввода только текста и изображений запустили 13 мая. Полный вариант с поддержкой видео появится «в ближайшие недели».
Читайте больше новостей в телеграм-канале Вся Правда
ЧИТАЙТЕ ТАКЖЕ: Apple интегрирует ChatGPT в iPhone