OpenAI представила нову версію нейромережі GPT-4o.
Нова версія ШІ ляже в основу чатбота ChatGPT. Вона працює з аудіо, зображеннями й текстом. За словами розробників, GPT-4o реагує на голос у середньому за 320 мілісекунд – це адаптація до реакції людини під час розмови. Нова модель ШІ адаптивна з реальним часом.
Також GPT-4o уміє розпізнавати емоційні звернення користувача й відповідати йому з різними емоціями, додаючи цій взаємодії персоналізації. Наприклад, під час демонстрації цієї версії ШІ GPT-4o розповідала казку на ніч. А коли представник OpenAI втрутився в розповідь і попросив відкоригувати емоції, нейромережа залежно від запитань почала змінювати голос: від драматичного до роботизованого, а потім навіть заспівала.
За допомогою камери ШІ може «бачити» все навколо й допомагати в розв’язанні завдань. Також він може бути перекладачем в онлайн-режимі, читати казки, співати, жартувати і зчитувати емоції користувача за виразом його обличчя.
Для розробників та споживачів GPT-4o буде доступним упродовж найближчих тижнів. Також застосунок ChatGPT з голосовими та візуальними можливостями скоро буде доступним для настільних ПК.
Матеріал підготовлено в межах проєкту Strategic Media Support Program, який реалізує Львівський медіафорум за фінансової підтримки People in Need (PIN) та Pioneer Foundation.