Компании, внедряющие генеративные инструменты искусственного интеллекта должны маркировать такой контент
Вице-председатель Европейской комиссии (ЕК) Вера Йоурова заявила, что компании, использующие генеративные инструменты искусственного интеллекта (ИИ), такие как ChatGPT и Bard, которые могут генерировать дезинформацию, должны помечать такой контент в рамках своих усилий по борьбе с фейковыми новостями. Ее слова приводит Reuters.
По ее словам, сейчас растут опасения по поводу злоупотребления этой технологией и вероятности того, что злоумышленники могут использовать ее для создания гораздо большего объема дезинформации, чем раньше.
«Участники, интегрирующие генеративный искусственный интеллект в свои сервисы, такие как Bingchat для Microsoft, Bard для Google, должны предусмотреть необходимые меры безопасности, чтобы злоумышленники не могли использовать эти сервисы для создания дезинформации», — подчеркнула Йоурова.
Последние новости криптовалют, аналитика и прогнозы — все самое интересное в нашем новостном Телеграм-канале. Подписывайтесь, чтобы не пропустить ничего важного.
Она добавила, что компании, у которых есть сервисы с потенциалом распространения дезинформации, созданной ИИ, должны, в свою очередь, применять технологии для распознавания такого контента и «ясно помечать его для пользователей». Более того, крупные корпорации, подписавшие Кодекс поведения ЕС по борьбе с дезинформацией, должны представить отчет о мерах безопасности, принятых в этой области, в июле.
Йоурова предупредила соцсеть «Твиттер», которая покинула Кодекс на прошлой неделе, что ей следует ожидать более пристального регулирования.
«Покинув Кодекс, „Твиттер” привлекла много внимания, и ее действия и соответствие законодательству ЕС будут тщательно и срочно проверены», — заключила Йоурова.
В конце апреля Евросоюз представил новые правила для разработчиков ИИ, согласно которым им придется раскрывать любые защищенные авторским правом данные, которые используются для обучения алгоритмов. При этом сперва некоторые законодатели предлагали и вовсе запретить использование лицензионных материалов для обучения ИИ.
Ведущие страны мира — члены «Большой семерки» (G7) — также призывают к ответственному использованию ИИ. Франция, США, Великобритания, Германия, Япония, Италия и Канада уже разработали пять принципов ответственного использования искусственного интеллекта. Среди них — пресечение предвзятости и дезинформации, нарушение авторских прав и другие вредоносные способы применения искусственного интеллекта.
Дисклеймер
Вся информация, содержащаяся на нашем вебсайте, публикуется на принципах добросовестности и объективности, а также исключительно с ознакомительной целью. Читатель самостоятельно несет полную ответственность за любые действия, совершаемые им на основании информации, полученной на нашем вебсайте.
