Що може оновлена модель штучного інтелекту GPT-4 і чим відрізняється від попередника
14 березня OpenAI випустила оновлену модель штучного інтелекту — GPT-4.
Про це повідомляється на сайті компанії.
"Ми створили GPT-4, останню віху в зусиллях OpenAI по масштабуванню глибокого навчання. GPT-4 — це велика мультимодальна модель (приймає вхідні дані у вигляді зображень і тексту, видає вихідні дані у вигляді тексту), яка, хоча і поступається людині в багатьох реальних сценаріях, демонструє продуктивність на рівні людини в різних професійних і академічних тестах", — йдеться у повідомленні.
Тобто перша головна відмінність полягає у тому, що GPT-4 є мультимодальним і може сприймати зображення як вхідні дані. Відтепер чат-бот не просто читає текст, а й аналізує зображення.
Функція розпізнавання зображень поки що доступна не всім клієнтам OpenAI — для початку OpenAI тестує її з одним партнером, компанією Be My Eyes, пише TechCrunch. Нова функція віртуального асистента Be My Eyes, що працює на базі GPT-4, може відповідати на запитання про надіслані їй зображення. Компанія пояснює, як це працює, у своєму блозі.
"Наприклад, якщо користувач надішле фотографію свого холодильника, віртуальний асистент зможе не лише правильно визначити, що в ньому зберігається, а й екстраполювати та проаналізувати, що можна приготувати з цих інгредієнтів. Інструмент також може запропонувати кілька рецептів для цих інгредієнтів і надіслати покрокове керівництво, як їх приготувати".
Другий важливий апгрейд — модель може позмагатись з людьми в складанні професійних і академічних тестів. Наприклад, GPT-4 здає симуляцію адвокатського іспиту з оцінкою, яка наближається до 10% найкращих учасників іспиту (тоді як результат GPT-3.5 був близько 10% найгірших).
Третє – це можливість працювати з великими текстами. GPT-4 здатний обробляти понад 25 тисяч слів тексту, що дає змогу використовувати його для створення довгих текстів, розгорнутих розмов, а також для пошуку та аналізу документів.
Згідно з заявою компанії, OpenAI витратила шість місяців на "ітеративне вирівнювання" GPT-4, використовуючи уроки з внутрішньої програми змагального тестування, а також ChatGPT, в результаті чого отримала "найкращі в історії результати" щодо фактичності, керованості та відмови виходити за межі обмежень. Як і попередні моделі GPT, GPT-4 навчався з використанням загальнодоступних даних, зокрема з публічних вебсторінок, а також даних, ліцензованих OpenAI.
"У звичайній розмові різниця між GPT-3.5 і GPT-4 може бути непомітною, — написали в OpenAI в блозі, анонсуючи GPT-4. "Різниця проявляється, коли складність завдання досягає достатнього порогу — GPT-4 більш надійний, креативний і здатний обробляти набагато більше нюансованих інструкцій, ніж GPT-3.5".
Однак, навіть з системними повідомленнями та іншими оновленнями, OpenAI визнає, що GPT-4 далека від досконалості. Він все ще "галюцинує" фактами й робить помилки в міркуваннях, іноді з великою впевненістю. В одному з прикладів, наведених OpenAI, GPT-4 назвав Елвіса Преслі "сином актора", що є очевидно хибним твердженням. GPT-4, як і попередня модель, не має знань про події після вересня 2021 року. Також в компанії додають, що ШІ не вчиться на власному досвіді.
Проте за даними розробників, GPT-4 показав на 40% вищі результати, ніж GPT-3,5 за результатами тестів оцінки фактології. Компанія стверджує, що GPT-4 на 82% рідше відповідає на запити щодо "забороненого" контенту порівняно з GPT-3.5 і на 29% частіше відповідає на делікатні запити — наприклад, медичні поради.
OpenAI вже відкрила список очікування на отримання API GPT-4. Також модель зможуть протестувати користувачі платної преміумверсії чат-бота компанії ChatGPT Plus, але з обмеженою кількістю запитів. Розробники кажуть, що нова модель ШІ вже інтегрована в низку проєктів поза межами компанії.