OpenAI представила нову мовну модель ChatGPT-4o, яка працює з аудіо, зображенням та текстами в режимі реального часу. Про це компанія оголосила у своєму блозі, передає УНН.
Деталі
До GPT-4o голосові розмови з ChatGPT відбувалися із середньою затримкою 2,8 секунди (GPT-3,5) і 5,4 секунди (GPT-4). Нова модель покращила ці показники в середньому до 320 мілісекунд, що відповідає реакції живої людини.
У OpenAI сподіваються, що цей продукт стане кроком до більш природної взаємодії між користувачем та комп’ютером. Також GPT-4o може виступати як швидкий голосовий перекладач між співрозмовниками, що говорять різними мовами.
Доповнення
Голосовий режим працює завдяки синергії трьох окремих моделей: одна проста модель транскрибує аудіо в текст, GPT-3.5 або GPT-4 приймає текст і виводить текст, а третя проста модель перетворює цей текст знову на аудіо. Крім того, порівняно з наявними мовними моделями, GPT-4o краще сприймає зображення та аудіо.
Нова технологія запроваджуватиметься поступово протягом наступних тижнів. Окремо компанія презентує застосунок для ПК з новими можливостями.
На відміну від GPT-4 Turbo, цей продукт вирішили зробити безплатним, але платні користувачі матимуть доступ до більшої кількості функцій.
OpenAI готує пошуковий продукт, кидаючи виклик Google09.05.24, 19:16