26.04.2024
Подписывайтесь на Telegram-канал по ссылке

Искусственный интеллект научился писать фальшивые научные исследования

Фальшивые научные исследования написал ИИ

До сегодняшнего дня алгоритмы искусственного интеллекта умели писать правдоподобные новости для неискушённых посетителей новостных сайтов, но теперь машины научились генерировать пачками материалы, которые вводят в заблуждение даже людей с академическим образованием. Аспиранты и профессоры компьютерных наук университета Мэриленда (США) опубликовали научную статью, в которой предсказали, что системы искусственного интеллекта уже сейчас способны посеять хаос в сферах медицины и кибербезопасности. Если попадут к злоумышленникам, конечно.

Авторы исследования сообщают, что для написания фейковых исследований и научных статей достаточно GPT-2 (Generative Pre-trained Transformer 2, второе поколение алгоритмов обработки естественного языка). Сегодня существует и более совершенный GPT-3, но настроенной модели для второго поколения достаточно, чтобы, например, написать развёрнутый реферат о вреде вакцинации против COVID-19 «из ниоткуда». С правдоподобно выглядящими доказательствами, теоремами и исследованиями.

Или выпускать «экспертные заключения» о хакерских атаках или компьютерных вирусах, которых никогда не существовало. И в таких исследованиях тоже не будет откровенной дезинформации или фальши, которую могли бы распознать эксперты по информационной безопасности.

Для противодействия таким системам учёные предлагают продумать, по какому принципу действуют алгоритмы мошенников. Например, научиться выявлять характерные грамматические ошибки, которые встречаются только в текстах, написанных машинами. Либо можно создать системы, которые будут крупномасштабно искать подтверждение информации в интернете и находить «исходники», из которых нейросети заимствовали теоремы и доказательства.