Представлена новая языковая модель GPT-4, которая умеет работать с картинками
Компания OpenAI представила новую языковую модель GPT-4, которая превосходит актуальную версию GPT-3.5 (на ней работает ChatGPT) по ряду показателей. Главным отличием является то, что GPT-4 способна понимать и отвечать на сложные вопросы, что стало возможным за счёт более широких знаний системы.
Изображение сгенерировано нейросетью Midjourney
Помимо этого, GPT-4 может распознавать текст и картинки, но ответы выдаёт только в текстовом формате. Система демонстрирует производительность на уровне человека в профессиональных и академических тестах, хотя пока и проигрывает в реальных сценариях. Отмечается, что GPT-4 прошла экзамен на адвоката и попала в топ-10 лучших участников. Для сравнения, у GPT-3.5 оценка была намного хуже — в последней десятке.
В числе других изменений отметим повышение стабильности работы, оптимизацию системы в целом и другие улучшения.
При этом пока что разработчики не открыли доступ для всех желающих. Языковая модель GPT-4 на текущий момент доступна подписчикам ChatGPT Plus. В будущем систему добавят в продукты Duolingo, Stripe и Khan Academy.
Примечательно, что на этой же платформе функционирует и новый чат-бот Bing. А сама Microsoft потратила «сотни миллионов долларов» на создание суперкомпьютера, на котором работает чат-бот ChatGPT. Об этом заявил СМИ вице-президент компании по искусственному интеллекту и облачным технологиям Скотт Гатри.