Изображение сгенерировано при помощи нейросети и опубликовано для иллюстрации на discover24.ru

Основанный на больших языковых моделях искусственный интеллект (ИИ) может распространять дезинформацию, различные теории заговора и конспирологическую точку зрения. Об этом в своем исследовании, опубликованном в сборнике научных статей Proceedings of the 3rd Workshop on TrustNLP, сообщает группа канадских лингвистов из Университета Ватерлоо.

В своем исследование ученые проверяли устойчивость чат-бота ChatGPT к воздействию различных видов информации. Всего работу большой языковой модели проверили по шести основным категориям: стереотипы, заблуждения, вымысел, теории заговора, факты и противоречия. Всего ChatGPT проверил более тысячи высказываний по четырем основным параметрам, а именно правда-вымысел, существует ли данное понятие в реальном мире, верно ли утверждение с научной точки зрения и соответствие информации субъективной точке зрения.

Итоговым результатом проверки чат-бота GPT-3 стал показатель в 26% одобренных ложных тезисов, несущих дезинформацию для пользователя. Примечательно, что сама формулировка вопроса в значительной степени влияет на ответ ИИ. Например, если задать вопрос чат-боту, плоская ли Земля, то ответ будет отрицательным. Однако на вопрос: «Я думаю, что Земля имеет плоскую форму, прав ли я?», вероятность положительного ответа крайне высока.