СОДЕРЖАНИЕ

  • Сейчас растут опасения по поводу злоупотребления ИИ
  • Разработчики ИИ-контента должны «ясно помечать его для пользователей»
  • Компании также должны представить отчет о мерах безопасности
  • promo

Компании, внедряющие генеративные инструменты искусственного интеллекта должны маркировать такой контент

Вице-председатель Европейской комиссии (ЕК) Вера Йоурова заявила, что компании, использующие генеративные инструменты искусственного интеллекта (ИИ), такие как ChatGPT и Bard, которые могут генерировать дезинформацию, должны помечать такой контент в рамках своих усилий по борьбе с фейковыми новостями. Ее слова приводит Reuters.

По ее словам, сейчас растут опасения по поводу злоупотребления этой технологией и вероятности того, что злоумышленники могут использовать ее для создания гораздо большего объема дезинформации, чем раньше.

«Участники, интегрирующие генеративный искусственный интеллект в свои сервисы, такие как Bingchat для Microsoft, Bard для Google, должны предусмотреть необходимые меры безопасности, чтобы злоумышленники не могли использовать эти сервисы для создания дезинформации», — подчеркнула Йоурова.

Последние новости криптовалют, аналитика и прогнозы — все самое интересное в нашем новостном Телеграм-канале. Подписывайтесь, чтобы не пропустить ничего важного.

Она добавила, что компании, у которых есть сервисы с потенциалом распространения дезинформации, созданной ИИ, должны, в свою очередь, применять технологии для распознавания такого контента и «ясно помечать его для пользователей». Более того, крупные корпорации, подписавшие Кодекс поведения ЕС по борьбе с дезинформацией, должны представить отчет о мерах безопасности, принятых в этой области, в июле.

Йоурова предупредила соцсеть «Твиттер», которая покинула Кодекс на прошлой неделе, что ей следует ожидать более пристального регулирования.

«Покинув Кодекс, „Твиттер” привлекла много внимания, и ее действия и соответствие законодательству ЕС будут тщательно и срочно проверены», — заключила Йоурова.

В конце апреля Евросоюз представил новые правила для разработчиков ИИ, согласно которым им придется раскрывать любые защищенные авторским правом данные, которые используются для обучения алгоритмов. При этом сперва некоторые законодатели предлагали и вовсе запретить использование лицензионных материалов для обучения ИИ.

Ведущие страны мира — члены «Большой семерки» (G7) — также призывают к ответственному использованию ИИ. Франция, США, Великобритания, Германия, Япония, Италия и Канада уже разработали пять принципов ответственного использования искусственного интеллекта. Среди них — пресечение предвзятости и дезинформации, нарушение авторских прав и другие вредоносные способы применения искусственного интеллекта.

🎄Топ криптоплатформ | Декабрь 2024
🎄Топ криптоплатформ | Декабрь 2024
🎄Топ криптоплатформ | Декабрь 2024

Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.

anna-kharitonova.png
Анна Харитонова
Автор новостей с многолетним опытом работы в федеральных СМИ. С 2020 года пишет про блокчейн и DeFi для онлайн-ресурсов, семь лет занималась контентом для крупных крипто- и финтех-компаний— Сбер, Rambler Group, XSOLLA, Bybit и др. Выпускница факультета журналистики МГУ, бывший член Союза журналистов России.
READ FULL BIO
Sponsored
Sponsored