Компании, внедряющие генеративные инструменты искусственного интеллекта должны маркировать такой контент
Вице-председатель Европейской комиссии (ЕК) Вера Йоурова заявила, что компании, использующие генеративные инструменты искусственного интеллекта (ИИ), такие как ChatGPT и Bard, которые могут генерировать дезинформацию, должны помечать такой контент в рамках своих усилий по борьбе с фейковыми новостями. Ее слова приводит Reuters.
По ее словам, сейчас растут опасения по поводу злоупотребления этой технологией и вероятности того, что злоумышленники могут использовать ее для создания гораздо большего объема дезинформации, чем раньше.
«Участники, интегрирующие генеративный искусственный интеллект в свои сервисы, такие как Bingchat для Microsoft, Bard для Google, должны предусмотреть необходимые меры безопасности, чтобы злоумышленники не могли использовать эти сервисы для создания дезинформации», — подчеркнула Йоурова.
Последние новости криптовалют, аналитика и прогнозы — все самое интересное в нашем новостном Телеграм-канале. Подписывайтесь, чтобы не пропустить ничего важного.
Она добавила, что компании, у которых есть сервисы с потенциалом распространения дезинформации, созданной ИИ, должны, в свою очередь, применять технологии для распознавания такого контента и «ясно помечать его для пользователей». Более того, крупные корпорации, подписавшие Кодекс поведения ЕС по борьбе с дезинформацией, должны представить отчет о мерах безопасности, принятых в этой области, в июле.
Йоурова предупредила соцсеть «Твиттер», которая покинула Кодекс на прошлой неделе, что ей следует ожидать более пристального регулирования.
«Покинув Кодекс, „Твиттер” привлекла много внимания, и ее действия и соответствие законодательству ЕС будут тщательно и срочно проверены», — заключила Йоурова.
В конце апреля Евросоюз представил новые правила для разработчиков ИИ, согласно которым им придется раскрывать любые защищенные авторским правом данные, которые используются для обучения алгоритмов. При этом сперва некоторые законодатели предлагали и вовсе запретить использование лицензионных материалов для обучения ИИ.
Ведущие страны мира — члены «Большой семерки» (G7) — также призывают к ответственному использованию ИИ. Франция, США, Великобритания, Германия, Япония, Италия и Канада уже разработали пять принципов ответственного использования искусственного интеллекта. Среди них — пресечение предвзятости и дезинформации, нарушение авторских прав и другие вредоносные способы применения искусственного интеллекта.
Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.