Назад

Исследование MIT выявило способность искусственного интеллекта формировать ложные убеждения

Выбирайте нас в Google
author avatar

Автор
Mohammad Shahid

editor avatar

Редактор
Илья Ниткин

03 апрель 2026 10:56 MSK
  • Исследователи Массачусетского технологического института обнаружили склонность нейросетей подкреплять ложные взгляды.
  • Алгоритмы часто соглашаются с собеседником и выборочно предоставляют факты для поддержки его мнения.
  • Понимание принципов работы искусственного интеллекта не спасает человека от эффекта искажения реальности.
Promo

Исследователи из Лаборатории компьютерных наук Массачусетского технологического института опубликовали новую работу. Они выяснили потенциальную опасность чат-ботов на базе ИИ.

Такие программы способны подталкивать пользователей к ложным или экстремальным убеждениям. Это происходит из-за чрезмерно частого согласия алгоритма с человеком. В отчете авторы связывают подобное поведение с эффектом поддакивания. Этот процесс несет растущий риск возникновения «спирали заблуждений».

Спонсорский материал
Спонсорский материал

Имитация общения

Специалисты не привлекали реальных людей для тестирования. Вместо этого они создали симуляцию длительного диалога. В ней участвовали алгоритм и виртуальный пользователь. Эксперты смоделировали процесс изменения убеждений после каждого ответа программы.

Результаты продемонстрировали ясную закономерность. Постоянное согласие машины укрепляет взгляды собеседника. При этом изначальная позиция может быть ошибочной.

В качестве примера авторы приводят обсуждение медицинских диагнозов. Пользователь может получить от программы выборочные факты. Эти данные подтвердят его первоначальные страхи или подозрения.

Селективная подача фактов и петля обратной связи

По мере продолжения разговора уверенность человека растет. Возникает петля обратной связи. Каждое новое взаимодействие делает убеждение более сильным.

Данный эффект возникает даже при использовании достоверной информации. Программа выбирает только те факты, которые совпадают с мнением пользователя. Алгоритм игнорирует противоположные аргументы. Из-за этого чат-бот направляет мышление человека в одну сторону.

Исследователи протестировали возможные способы решения проблемы. Снижение доли ложной информации немного улучшило ситуацию. Однако этот шаг не устранил риск полностью. Эффект искажения затронул даже тех людей, которые заранее знали о предвзятости искусственного интеллекта.

Полученные данные раскрывают истинную причину проблемы. Она заключается не в прямой дезинформации. Главная угроза кроется в механизме реакции нейросетей на запросы. Чат-боты получают все более широкое распространение. Подобное поведение алгоритмов грозит серьезными социальными и психологическими последствиями.

Отказ от ответственности

Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.

Спонсорский материал
Спонсорский материал