Минцифры подготовило законопроект, который позволит россиянам отказываться от обслуживания с использованием искусственного интеллекта. Если документ примут, компании будут обязаны предупреждать, что с вами говорит робот, и оказывать услуги без применения нейросетей тем, кто этого потребует.
Новые правила могут вступить в силу в сентябре 2027 года. При этом конкретный перечень ситуаций, в которых гражданин вправе отказаться от ИИ, должно определить правительство.
Зачем нужен отказ от нейросетей
Главная цель — защитить людей от ошибок алгоритмов и дать им право на обычное человеческое общение. Это особенно важно в медицине, юриспруденции или финансах, где цена ошибки очень высока, а стандартный скрипт нейросети не всегда может учесть уникальную ситуацию клиента.
Кроме того, пожилые люди и те, кому трудно разобраться в сложных интерфейсах, часто не понимают, как взаимодействовать с роботами. В стрессовых ситуациях формальные ответы автоответчика могут только навредить, поэтому законопроект закрепляет право на «человеческий контроль». Разработчиков также обяжут проверять свои нейросети, чтобы те не принимали дискриминационных решений.
Трудности внедрения и реакция бизнеса
Законопроект пока выглядит сырым. Главная проблема в том, что современный бизнес уже невозможно представить без ИИ. Показательно, что, по данным исследования МТС Web Services, лишь 26% российских компаний, уже заложивших бюджеты на ИИ, представили четкую стратегию его внедрения — остальные ограничиваются пилотами и экспериментами без понимания конечной пользы. Без системного подхода бизнес рискует потерять до 30–40% бюджета на разрозненных проектах.
Если при этом клиенты банков и сотовых операторов массово потребуют личного обслуживания, компаниям придется еще и раздувать штаты контакт-центров. Это неизбежно приведет к росту цен на услуги и более долгому ожиданию на линии.
Есть и сферы, где заменить ИИ человеком технически невозможно — например, работа навигатора или расчет стоимости поездки в такси. Даже когда вы говорите с реальным оператором, он часто пользуется подсказками нейросети. Поэтому закон не должен полностью запрещать технологии, а лишь создавать удобный механизм для исправления ошибок алгоритмов.
Мировой контекст
Регулирование ИИ — общемировой тренд. В ЕС в 2025 году был принят EU AI Act: с августа 2026 года компании обязаны сообщать пользователям, что те общаются с ботом, если это неочевидно. Схожие требования действуют в Южной Корее.
В США в декабре 2025 года вышел президентский указ, закрепивший право граждан подавать в суд за использование их данных для обучения ИИ без согласия и установивший ответственность за распространение дипфейков.
Россия движется в том же направлении, однако эксперты настаивают: регулирование должно быть четким и не блокировать развитие технологий — тем более что ставки высоки: по оценке Сбера, совокупный экономический эффект от внедрения ИИ в его экосистеме к 2026 году может достичь 550 млрд рублей.
Хотите получить доступ к экспертным инсайдам? Подписывайтесь на наш телеграм-канал, получайте доступ торговым сигналам и новостям рынка, общайтесь с нашим аналитиком. Будьте на шаг впереди рынка каждый день!