24.04.2024
Подписывайтесь на Telegram-канал по ссылке

Да ты шутишь! Как GPT-3 научилась рассказывать анекдоты

Как GPT-3 научилась рассказывать анекдоты

Алгоритм для генерации текстов GPT-3 стал ещё умнее. Нейросеть уже прославилась своим талантом писать статьи и умением общаться. Теперь она ещё и шутит. Неужели скоро искусственный интеллект будет писать репризы для стендаперов? Давайте разбираться.

С чего всё началось

28 мая 2020 года исследователи из стартапа OpenAl Илона Маска опубликовали статью о новом алгоритме для генерации текста. GPT-3 (Generative Pre-trained Transformer 3) научили писать код и текст в стихах и прозе, сочинять музыку, разгадывать ребусы, отвечать на письма и поддерживать беседу. Чтобы обучить нейросеть, создатели собрали датасет из 570 ГБ текстов. Это были данные англоязычной Википедии, открытой библиотеки Common Crawl, книги и веб-страницы. Компания потратила на его обучение $5 млн. И не зря: оно сделало GTP-3 самым мощным алгоритмом обработки естественного языка в мире.

OpenAl собиралась создать общий искусственный интеллект, который сможет мыслить как человек. И пока все указывает на то, что они на верном пути. Первым прототипам NLP (Natural Language Processing) неплохо удавалось заканчивать предложения и генерировать новости по заголовкам. Но статьи давались с трудом: в тексте встречались повторы, автор перепрыгивал с темы на тему. GPT-3 стала гораздо умнее и уже написала статью для The Guardian, по тексту которой нельзя понять, что её создал не человек.

Если сравнить GPT-3 с другими алгоритмами NLP, она уверенно ведёт благодаря своей гибкости. Сегодняшние нейросети могут работать только в одной области, для которой их обучали. Если алгоритм пишет код, он не сможет сочинять стихи и наоборот. А GPT-3 получила знания из разных источников от Википедии до классической литературы и может пользоваться ими для решения любой задачи.

Где работает GPT-3

GPT-3 написал пост в блог Лиама Порра, и почти никто из 26 тыс. читателей не догадался, что читает текст, написанный искусственным интеллектом. Пост даже возглавлял какое-то время рейтинг Haker News.

GPT-3 научился верстать макеты в Figma по комментариям, которые давал ему дизайнер Джордан Сингер.

Бот на основе GPT-3 целую неделю отвечал на вопросы пользователей AskReddit. Пока его не заблокировали, он успел дать более 1000 развёрнутых ответов.

GPT-3 попробовал себя в роли медицинского чат-бота. Испытательный срок искусственный интеллект не прошёл: он порекомендовал пользователю совершить суицид.

GPT-3 пишет код на Python по комментариям на естественном языке для OpenAl.

GPT-3 по-русски

В октябре 2020 года вышел русскоязычный GPT-3, который создали разработчики Сбера. Русская нейросеть изучила 600 ГБ текстов, 90% которых написаны на русском. Подключится к ней можно на странице SberCloud. Разработчики обещают, что программа сможет генерировать текст по нескольким вводным предложениям. Записки уникальны и не повторяются, но в них может страдать логика или могут искажаться факты. ruGPT-3 создаёт не только тексты. Если дать ему пару строчек на одном из языков программирования, он напишет программный код.

Он ещё и шутит

В этом году в Университете ИТМО научили GPT-3 рассказывать анекдоты. Они создали сайт, на котором любой желающий может насладиться кибер-юмором. За основу взяли классическую завязку: «Заходит некто в бар и что-то заказывает». Пользователю нужно выбрать три составляющие: кто заходит, как заходит и что заказывает. А искусственный интеллект в ответ рассказывает анекдот. Шутки получаются довольно странными, но, по словам заместителя руководителя отдела имиджевых мероприятий Александра Гостева, «вполне могут рассмешить Алису или Siri».

Эксперимент доказывает, что ИИ доступны даже такие сложные приёмы, как юмор. Ведь шутка нарушает логику алгоритма, по которому должна действовать машина. А GPT-3 худо-бедно справился с задачей. Этот жанр предполагает определённую логику и структуру повествования, поэтому вполне возможно, что скоро искусственный интеллект освоит и это искусство.