Сооснователь Ethereum Виталик Бутерин предупреждает о рисках искусственного интеллекта (ИИ) со сверхразумом и важности сильной защиты
Виталик Бутерин опубликовал новое эссе. Помимо прочего, в нем соучредитель Ethereum сфокусировался на вопросе о регулировании ИИ.
Подпишитесь на нашу рассылку и получайте новости о том, что происходит в мире Web3, прямо на почту!
Виталик Бутерин снова бьет тревогу из-за ИИ
В новом эссе Бутерин представил идею «d/acc», или защитного ускорения, в рамках которой технологии должны развиваться для защиты, а не для вреда. Это далеко не первый раз, когда сооснователь Ethereum говорит об опасности искусственного интеллекта.
«Самый (почти) ужасный способ, как ИИ может ухудшить мир, — это буквально привести к вымиранию человечества», — отмечал он в 2023 году.
С тех пор Виталик продолжает развивать идеи о том, как можно защититься от супер-ИИ. По его словам, искусственный интеллект со сверхразумом может появиться в ближайшие несколько лет.
«Кажется, у нас есть три года до появления сильного искусственного интеллекта общего уровня (AGI) и еще три года до суперинтеллекта. Если мы не хотим, чтобы мир был разрушен или попал в необратимую ловушку, мы не можем просто ускорять хорошее, мы также должны замедлять плохое», — написал Бутерин.
AGI, или сильный интеллект общего уровня, — это тип ИИ, который может мыслить и действовать так же, как человек.
Для того, чтобы снизить связанные с ИИ риски, Бутерин предлагает создавать децентрализованные системы на базе искусственного интеллекта. Важно, чтобы технология оставалась инструментом в руках человека. Тогда катастрофические последствия могут быть сведены к минимуму, считает Виталик.
Сооснователь Ethereum отметил, что ответственными участниками сценария гибели от ИИ могут стать военные. Использование искусственного интеллекта в военных целях растет по всему миру — это видно по Украине и Газе. По мнению Бутерина, любое регулирование ИИ, скорее всего, освободит армии от ответственности, что делает их значительной угрозой.
Как зарегулировать искусственный интеллект
Виталик подчеркнул, что для избежания связанных с ИИ рисков необходимо привлекать пользователей к ответственности.
«Хотя связь между тем, как модель разрабатывается и как она в итоге используется, часто неясна, именно пользователь решает, как именно использовать ИИ», — указал он на роль пользователей.
Если правила ответственности за создание искусственного интеллекта работать не будут, следующим шагом может стать внедрение «мягкой паузы». Это позволит замедлить тем потенциально опасных разработок, написал Бутерин.
«Цель — иметь возможность сократить доступные вычислительные мощности в мире на ~90-99% на 1-2 года в критический период, чтобы выиграть больше времени для подготовки человечества».
По его словам, паузу можно реализовать через проверку местоположения и регистрацию ИИ.
Еще один подход — контроль аппаратного обеспечения искусственного интеллекта. Виталик объяснил, что в оборудование для ИИ можно встроить чип для контроля. Этот чип даст системам ИИ возможность работать только при получении трех подписей от международных организаций каждую неделю. Одна из этих организаций должна быть гражданской, не связанной с военными.
Однако Бутерин отметил, что все предложенные им стратегии имеют свои недостатки. По его словам, это — всего лишь временные меры, способные замедлить наступление эры машин.
Хотите стать частью большого и дружного сообщества BIC? Тогда подписывайтесь на нашу группу в «Телеграме» — там вас ждет общение с криптоэнтузиастами, помощь от наших экспертов и эксклюзивные комментарии опытных аналитиков.
Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.