Как нейросети притворяются всезнайками и что с этим делать?

Мы уже рассказывали о том, что способность нейросетей врать пользователям превзошла самые смелые ожидания. Может показаться, что в этом нет ничего серьезного, однако ученые с этим не согласны. Дело в том, что такие языковые модели, как GPT-4 стали неотъемлемой частью повседневной жизни.

Они также активно используются в образовании, медицине и науке, помогая решать разнообразные и довольно сложные задачи. Но, несмотря на впечатляющие возможности этих интеллектуальных систем, результаты последних исследований показали, что по мере их развития и постоянного улучшения, нейросети становятся все менее надежными и чаще выдумывают факты.

Как нейросети притворяются всезнайками и что с этим делать? Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь. Изображение: wp.technologyreview.com. Фото.

Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь.

Новейшие ИИ-системы стремятся убедительно отвечать на все вопросы, даже когда не уверены в надежности информации. Это особенно опасно в областях, где точность и надежность критически важны, например, в медицине или юридической практике.

Почему нейросети выдумывают факты?

Результаты исследования, опубликованного в журнале Nature, показали, что группа чат-ботов с искусственным интеллектом становится все менее надежной: по мере своего развития, большие языковые модели все чаще выдумывают факты, отвечая на вопросы пользователей.

К такому выводу авторы статьи пришли, рассмотрев работу ведущих в отрасли ИИ-систем, включая GPT от OpenAI, LLaMA от Meta, а также модель с открытым исходным кодом BLOOM, созданную исследовательской группой BigScience.

Почему нейросети выдумывают факты? Нейросети научились притворяться всезнайками. Изображение: quantamagazine.org. Фото.

Нейросети научились притворяться всезнайками.

Отметим, что традиционно улучшение систем на основе искусственного интеллекта, достигалось двумя способами: масштабированием (увеличением количества параметров, объема данных и вычислительных ресурсов) и «оттачиванием» моделей (настройкой под конкретные задачи и использованием обратной связи от пользователей). Эти подходы позволили чат-ботам лучше понимать инструкции и генерировать более сложные и связные ответы.

В рамках исследования, однако, было обнаружено, что эти методы улучшения приводят к нежелательным последствиям. Так, более крупные и «отточенные» модели не всегда надежны в решении простых задач, ошибки в которых должны быть минимальны. Более того, доля неправильных ответов улучшенных моделей в целом значительно выше, чем у их предшественников.

В наши дни нейросети отвечают практически на все вопросы. Это означает, что количество как правильных, так и не правильных ответов растет, – рассказал один из авторов нового исследования Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта (Испания).

Более жесткую оценку дает Майк Хикс из Университета Глазго (Великобритания), который не принимал участие в исследовании. По его мнению, притворство чат-ботов становится все лучше. «В целом, ситуация выглядят так, будто они блефуют», – сообщил Хикс.

Как ученые узнали, что чат-боты врут?

В рамках исследования ученые задавали чат-ботам вопросы по различным темам (от математики до географии), а также попросили выполнить ряд задач, например, перечислить информацию в определенном порядке. Результаты показали, что более крупные и мощные ИИ-системы в целом давали наиболее точные ответы. Однако точность ответов на более сложные вопросы была значительно ниже.

Авторы научной работы отметили, что ответить практически на любой вопрос смогли GPT-4 и GPT-o1 от OpenAI. В то же самое время ни один чат-бот из семейства LLaMA не смог достичь уровня точности в 60%, отвечая на самые простые вопросы.

Как ученые узнали, что чат-боты врут? Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи. Изображение: ctfassets.net. Фото.

Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи.

В целом, чем больше становились модели искусственного интеллекта — с точки зрения параметров, обучающих данных и других факторов, — тем больше неправильных ответов они давали, – заключили исследователи.

Тем не менее, по мере своего развития, нейросети все лучше отвечают на более сложные вопросы. Проблема, помимо их склонности к ошибкам, заключается в том, что они по-прежнему не справляются с простыми вопросами.

Теоретически, наличие подобных ошибок – это серьезное предупреждение для ученых и пользователей, но поскольку эти интеллектуальные системы неплохо решают сложные задачи, мы, вероятно, склонны не замечать их очевидные недостатки.

Как ученые узнали, что чат-боты врут? Чат-ботам трудно отвечать на простые вопросы. Изображение: cnet.com. Фото.

Чат-ботам трудно отвечать на простые вопросы.

К счастью, результаты нового исследования свидетельствуют и о несколько «отрезвляющих» выводах о том, как люди воспринимают ответы ИИ. Например, когда участников исследования попросили оценить, насколько точными им кажутся ответы чат-ботов на заданные вопросы, испытуемые ошиблись лишь в 10%-40% случаев. Это означает, что осведомленность пользователей о том, что чат-боты не такие уж всезнайки, растет.

Что делать?

По мнению авторов научной работы, самый простой способ борьбы с «всезнающими» ИИ-системами заключается в их «перепрошивке» – разработчики должны запрограммировать модели таким образом, чтобы те не спешили отвечать на все вопросы сразу. Например, более ранние модели часто избегали ответов на сложные вопросы и признавали свои ограничения.

Можно задать своего рода «порог» для чат-ботов, чтобы они, отвечая на сложный вопрос, отвечали честно: «Я не знаю», – рассказал один из авторов исследования Эрнандес-Оралло.

Тем не менее, подобная честность может не входить в интересы компаний, которые занимаются разработкой и улучшением ИИ-систем. В конечном итоге главная задача корпораций – привлечь как можно больше внимания общественности (а заодно и новых пользователей) к своим новейшим разработкам. По этой причине ученые считают, что разработчикам необходимо переосмыслить подход к разработке ИИ-систем.

Что делать? Взаимодействие с чат-ботами должно быть осмысленным. Изображение: ft.com. Фото.

Взаимодействие с чат-ботами должно быть осмысленным.

Это означает, что если бы чат-ботов ограничивали, заставляя их отвечать только на те вопросы, ответы на которые они знают, общественность сразу же обратила бы внимание на пределы возможностей нейросетей. Однако в этом, как мне кажется, нет ничего плохого.

Итак, что же делать простым людям, регулярно взаимодействующим с чат-ботами, зная все описанное выше? Ответ, как мне кажется, прост – «доверяй, но проверяй». Безусловно, это занимает время, однако сам по себе навык (и даже привычка) проверять данные и информацию, определенно точно сделает вашу жизнь и работу лучше.

 

источник

  • avatar
  • .

Больше в разделе

0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.