26.02.2024
Подписывайтесь на Telegram-канал по ссылке

Выпущена новая языковая модель GPT-4

GPT-4

Компания OpenAI представила новое поколение алгоритма по обработке естественного языка — мультимодальную модель GPT-4 (Generative Pre-trained Transformer 4). Новая нейросеть ушла вперёд по сравнению с GPT-3.5, она может давать ответы на изображения, а сами ответы более достоверны. Ознакомиться с подробным исследованием можно по ссылке.

GPT-4 наделена большей «креативностью» и более надёжна в использовании, она умеет обрабатывать более детализированные запросы. По внутренним оценкам фактичности или достоверности она превосходит GPT-3.5 на 40%. Как пример компания приводит тест на адвоката — симулятор, по которому оценивались обе нейросети. Результаты теста GPT-4 оказались примерно в 10% лучших, а GPT-3.5 — в 10% худших.

Новая нейросеть может принимать вводные в виде текста и картинок, а не только текста, как было ранее, выходные данные — по-прежнему в текстовом формате. В различных обстоятельствах — включая документы с текстом и изображениями, диаграммы или скриншоты — GPT-4 демонстрирует те же возможности, что и при работе с только текстовыми данными. Тем не менее загрузка изображений пока что предварительно тестируется — эта возможность ещё недоступна для пользователей.

Также отличием от предыдущего поколения являются новые меры предосторожности в части запрещённого контента — склонность нейросети к ответам на вопросы подобного характера снижена на 82%. При этом на 29% увеличилась частота допустимых (в соответствии с политикой компании) ответов на чувствительные вопросы, к примеру на просьбы дать медицинский совет.

Сейчас попробовать новую модель могут пользователи с подпиской ChatGPT Plus. Компания-разработчик не исключает, что в будущем введет новый уровень подписки для более массового использования GPT-4 — это будет зависеть от итогов наблюдений за трафиком. Также OpenAI допускает, что позднее откроет доступ к GPT-4 для некоторого количества пользователей без подписки. Компания, по её заявлению, потратила шесть месяцев на отладку GPT-4. Тем не менее нейросеть всё ещё может допускать ошибки или давать «вредные советы» — её новые возможности несут новые риски. OpenAI привлекла более 50 специалистов из разных областей, чьи советы легли в основу мер по смягчению последствий таких рисков.