Как глубока кроличья нора
Эксперты во всем мире единодушны в том, что технология дипфейков откроет новую веху в истории информационных войн. Инструменты для создания убедительных и правдоподобных видео, на котором человек произносит, то, что он на самом деле никогда не говорил, открывает безграничные возможности для пропаганды, дезинформации и манипуляций общественным мнением. Сама по себе технология не нова. Но если несколько лет назад мы смеялись над плохо вмонтированными лицами звезд в ролики пикантного содержания, то сегодня с трудом способны распознать фальшивого Барака Обаму, обзывающего Трампа «засранцем» К счастью, бывший президент США говорил голосом пародиста Джордана Пила. А накануне заседания в конгрессе США с участием Марка Цукерберга кто-то выложил в сеть дипфейк с участием главы Facebook, где он рассказывает, каким образом контролирует будущее человечества. В прошлом месяце в твиттере появился фрагмент из фильма Джета Ли с главой популярной криптобиржи Binance Чанпен Чжао (прим. ред.: Джет Ли — известный китайский актер и мастер ушу).Шутку и мастерство компании Alethea AI, сделавшей клип, оценили. Однако, сам Чанпен Чжао назвал эту технологию пугающей, и добавил, что такими темпами видео-KYC (процедуры «знай своего клиента») и распознавание лиц можно будет выбросить в окно. В целом дипфейки уже активно используются для политических и корпоративных атак, а также как инструмент черного пиара и недобросовестной международной дипломатии. Учитывая стремительное развитие и доступность технологии, эта тенденция будет набирать обороты.The first deepfake in #cryptocurrency: Master CZ’s teachings!@cz_binance @binance @BinanceLabs @CelerNetwork #SFBW #sfblockchainweek #cryptocurrency #cryptotrading #cryptotwitter #deepfake pic.twitter.com/WMNhUsj9N0
— Alethea AI (@real_alethea) October 29, 2019
Клин клином, а технологии технологиями
Microsoft, Оксфордский университет и другие крупные компании тратят миллионы долларов на поиски решения. Теперь к ним подключились и молодые блокчейн-стартапы, использующие инновационную технологию распределенного реестра для защиты изображений и распознавания дипфейков. В частности, создатель ролика с Чанпеном Чжао, компания Alethea AI, разрабатывает инструменты на базе искусственного интеллекта для выявления дипфейков и сохраняет их в блокчейне. Предполагается, что этот реестр впоследствии можно будет использовать для быстрого и надежно обнаружения подделок. В частности, специалисты собирают базу данных видеоконтента с акцентом на движения рта. Эксперты утверждают, что их труднее всего подделать, поскольку машина пока не в состоянии достоверно отобразить нужные микровыражения лица. Amber Video — еще один стартап, работающий над решением этой проблемы. Однако если в Alethea ищут способы распознать подделку, то разработчики Amber Video делают ставку на изначальную защиту изображения при помощи цифровых отпечатков. По словам создателя компании Дэвида Доэрманна, речь идет о методе криптографического хеширования видео с последующей загрузкой в блокчейн. Эта технология гарантирует, что исходное видео не подвергалось обработке или манипуляциям. В России тоже признают актуальность этой проблемы. В частности, спецпредставителя президента России по вопросам цифрового и технологического развития Дмитрий Песков считает, что проблема дипйейков будет набирать обороты и остановить их распространение практически невозможно. Выступая на конференции, посвященной рискам и ответственности журналистов, он отметил, что взрывной рост фейков неизбежен, особенно в области журналистики. Бороться с ними невозможно, но надо развивать технологии для распознавания подделок. Как вы думаете, насколько глубока проблема дипфейков? Можно ли ее решить при помощи блокчейн-технологий? Делитесь своим мнением в комментариях.Изображения предоставлены Twitter.
Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.