Пользователи централизованных бирж сталкиваются с рисками из-за роста дипфейков

  • Дипфейки на базе ИИ распространяются с невероятной скоростью.
  • Фейковые видео в реальном времени ставит под угрозу проверки централизованных биржах.
  • Без усиления мер защиты автоматизированная регистрация усиливает риски мошенничества и злоупотребления.
Promo

Активное использование инструментов на базе искусственного интеллекта для создания дипфейков угрожает криптосообществу.

Технологии быстро развиваются и становятся доступнее — на этом фоне возникают вопросы к надежности систем проверки личности, которые используют централизованные криптобиржи.

Спонсорский материал
Спонсорский материал

Госорганы принимают меры для ограничения дипфейков

Фейковые видеоролики быстро распространяются по социальным сетям и усиливают опасения, связанные с новой волной дезинформации и фейковых материалов. Злоупотребления такими технологиями подрывают общественную безопасность.

Проблема вышла на новый уровень — власти разных стран принимают законы, запрещающие использование дипфейков.

На этой неделе Малайзия и Индонезия первыми ограничили доступ к Grok — чат-боту на базе искусственного интеллекта от xAI, который создала команда Илона Маска. Чиновники пояснили, что решение связано с опасениями из-за создания с помощью ИИ откровенных изображений без согласия людей.

Генеральный прокурор Калифорнии Роб Бонта объявил о похожих мерах. В среду он подтвердил, что его ведомство расследует несколько случаев, связанных с публикацией откровенных изображений реальных людей без их согласия.

«Такой контент, где изображают женщин и детей обнаженными или в сексуализированных сценах, используют для травли в интернете. Призываю xAI немедленно принять меры, чтобы распространение подобных материалов прекратилось», — говорится в заявлении Бонты.

В отличие от ранних дипфейков, новые инструменты реагируют на запросы в реальном времени и могут правдоподобно воспроизводить мимику и движения губ, синхронизированные с речью.

В результате простые проверки — например, мигание, улыбка или движения головы — уже не дают гарантии, что перед камерой настоящий человек.

Спонсорский материал
Спонсорский материал

Подобные технологические изменения напрямую влияют на централизованные биржи, занимающиеся визуальной идентификацией пользователей при регистрации.

Централизованные биржи сталкиваются с давлением

Финансовые последствия мошенничества с дипфейками уже ощущаются на практике.

Эксперты и исследователи из сферы технологий отмечают, что созданные искусственным интеллектом фото и видео все чаще появляются, например, при рассмотрении страховых случаев и судебных разбирательствах.

Пример дипфейка для регистрации на бирже

Криптоплатформы, работающие по всему миру и часто использующие автоматическую регистрацию пользователей, могут стать удобной мишенью для подобных действий, если защитные меры не будут развиваться вместе с технологиями.

По мере того как ИИ-контент становится доступнее, доверять только визуальной верификации уже недостаточно.

Перед криптоплатформами стоит задача — реагировать быстрее, пока развитие технологий не оставило защитные инструменты позади и не создало угрозу для пользователей и сервисов.

Хотите получить доступ к экспертным инсайдам? Подписывайтесь на наш телеграм-канал, получайте доступ торговым сигналам и новостям рынка, общайтесь с нашим аналитиком. Будьте на шаг впереди рынка каждый день!


Чтобы прочитать свежую аналитику криптовалютного рынка от BeInCrypto, нажмите здесь.

Отказ от ответственности

Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.

Спонсорский материал
Спонсорский материал