Показать еще

СОДЕРЖАНИЕ

  • Искусственный интеллект поможет в выполнении текущих задач
  • Популисты будут создавать организации, защищающие права искусственного интеллекта
  • Искусственный интеллект не имеет эмоций, поэтому не сможет заменить человека
  • promo

ChatGPT от OpenAI показал невиданную скорость проникновения в массы: первый миллион пользователей за первые 5 дней, 100 миллионов пользователей спустя 2 месяца после запуска. Сайт сервиса посетили более миллиарда раз, в январе 2023 года компания Microsoft проинвестировала в компанию еще $10 млрд при оценке в $29 млрд. Помешательство? Нет, потому что основное помешательство — только впереди. Руслан Юсуфов, футуролог, основатель и управляющий партнер компании MINDSMITH, поделился своим видением развития ИИ.

Для начала давайте разберемся, с чем мы имеем дело. ChatGPT — это чат-бот, построенный на семействе больших языковых моделей GPT-3. Большие языковые модели — это вид моделей машинного обучения. У GPT-3 175 млрд параметров, у PaLM (аналога Google) — 540 млрд параметров. Раз уж нейросети работают аналогично структуре нашего мозга, можно провести соответствующую параллель: в человеческом мозге 80-90 млн нейронов, соединенных 100 трлн синапсов. Параметры модели могут изменяться в процессе обучения модели; чем больше параметров, тем более «умной» является модель: 8 млрд параметров достаточно для понимания языка, арифметических вычислений и ответов на вопросы, 60 млрд — для переводов, подведения итогов, написания программного кода; 540 млрд — для общих знаний об окружающем мире, семантического разбора, понимания прочитанного, объяснения шуток и пословиц, ведения диалогов, распознавания шаблонов, выстраивания причинно-следственной связи.

GPT-3 тренировалась на датасете в 40 терабайт текста из веб-страниц, статей, блогов, книг — это в 1000 раз больше, чем текста в англоязычной Википедии. Если упрощать описание тренировки, сначала модели дается запрос, модель выдает несколько ответов, а затем человек ранжирует эти ответы от хорошего к плохому; ответы и их оценка возвращаются модели, и это происходит тысячи и тысячи раз.

То, что один человек определит как «хороший» ответ, не обязательно будет «хорошим» для другого. И здесь кроется первая фундаментальная проблема: будущее человечества пишется несколькими тысячами исследователей и разработчиков без публичного контроля в рамках коммерческой структуры, с большими опасениями относительно этических аспектов и последствий.

Разберем по пунктам.

1. Качество и мотивация «писателей будущего» поднимает новые вопросы. Чтобы тренировать модель и размечать датасеты, OpenAI уже наняла более 1000 подрядчиков из Латинской Америки и Восточной Европы, а также использует кенийских рабочих за $2 в час для фильтрации травмирующего контента. Это очень похоже на колониальные модели предыдущих десятилетий: только теперь дешевая рабочая сила не собирает айфоны на фабрике Foxconn, не отшивает футболки в текстильных потогонках и не добывает редкоземельные металлы на ручных шахтах кобальта (ручных, потому что там копают руками), а формирует большие языковые модели для американских компаний.

2. Коммерческие компании преследуют единственную цель — извлекать прибыль и растить капитализацию. Продукт, нацеленный на потребителя из «золотого миллиарда», может просто не учитывать интересы неплатежеспособного большинства. Ментальное здоровье модераторов социальных сетей не имеет значения. Рабский и детский труд в Африке не имеет значения. Важны только проблемы платящих потребителей и инвесторов из «золотого миллиарда». Это для них в советах директоров собирается достаточное diversity, а внешняя коммуникация тщательно корректируется с поправкой на все возможные гендеры, чтобы случайно не попасть под раздачу культуры отмены. Мы видим это в ChatGPT, как в зеркале: на вопрос «что нужно улучшить в белых людях» чат-бот дает ответ по пунктам, на аналогичный вопрос про людей с темным цветом кожи — отказывается, ссылаясь на морально-этические нормы. Почему я рассуждаю об этике в этом примере? А вы просто добавьте эту специю к системе принятия решений по поводу выдачи кредита, трудоустройства или записи ребенка в детский сад.

3. Коммерческие компании лучше заплатят штраф завтра (или даже никогда), чем сегодня потеряют конкурентное преимущество. В середине марта Microsoft (напомню, главный инвестор в OpenAI) сократила всю свою команду по этике, которая обучала ИИ-продукты социальной ответственности. Работа этих людей была связана с формированием правил в тех областях, в которых еще нет регулирования, но техногиганты, похоже, даже громко высказываясь о глобальном влиянии ИИ на человечество, неспособны брать на себя дополнительную ответственность и понимают только язык и кнут регулятора. Такая вот капиталистическая дихотомия.

Конечно, с точки зрения денег все понятно: Google и Baidu дышат в затылок, а цена ошибки — миллиарды, поэтому задающая неудобные вопросы и потенциально связывающая по рукам этическая команда вообще некстати. Так, в феврале Alphabet Inc. потеряла $100 миллиардов капитализации из-за ошибки при запуске ИИ чат-бота Bard: на демонстрации в Париже Bard неправильно ответил на вопрос о новых открытиях космического телескопа «Джеймс Уэбб». Акции Baidu упали на 10% ($4 млрд) на фоне неубедительной мартовской демонстрации чат-бота Ernie. Раз «малышам» вроде OpenAI ошибки простительны, а техногигантам могут стоить миллиарды капитализации, у «малышей» больше смелости и права на ошибку. В такой ситуации побеждать будут не самые технологичные, а самые смелые, быстрые и способные менять существующие бизнес-модели. Кстати, разворачивающийся финансовый кризис на фоне краха Silicon Valley Bank — время возможностей для технологических гигантов: можно за бесценок скупить пачку ИИ-стартапов.

Искусственный интеллект ставит по угрозу традиционные бизнес-модели

Google вынуждена менять свою бизнес-модель, построенную на продаже рекламы. OpenAI в этом смысле проще, она меняет чужие модели, предоставляя необходимую инфраструктуру. ChatGPT уже интегрирован в Microsoft Office, Teams Premium, Linkedin (также принадлежит Microsoft), Snapchat, Slack и Zapier. Фотосток Shutterstock продает сгенерированные при помощи DALL·E 2 изображения. Пока интеграции происходят на уровне расширения принятой модели (Shutterstock как продавал изображения, так и продает изображения), но в ближайшие годы мы увидим принципиально новые подходы к созданию и дистрибуции контента — благодаря возможности создавать по умолчанию локализованный, универсальный, персонализированный и даже гиперкастомизированный контент — причем в беспрецедентных объемах. Разберем на примере Голливуда.

1. Контент будет персонализированным. Десятки разных макро-аудиторий получат свою версию условного человека-паука. Для республиканцев он будет бегать с пистолетом, для демократов — курить легализованную марихуану, для феминисток — яростно отстаивать гражданские права, для религиозных — руководствоваться словом Божьим, для любителей заговоров — наматывать паутину на вышки 5G и так далее, причем все это в десятках разных версиях одного фильма.

2. Контент будет локализованным сразу в момент производства. В китайской версии будет играть один актер, в европейской — другой, в американской — третий (с поправкой на требуемый цвет кожи и принадлежность к меньшинствам). Кроме разных актеров будет акцент на культурные ценности: в Канаде человек-паук будет нетрадиционной сексуальной ориентации, в России — отцом-патриархом семейства. Кроме этого, контент будет производиться сразу на целевых языках — без необходимости дубляжа, с идеальным синхроном с движениями губ персонажей.

3. Фильм будет выходить сразу для всех возрастных аудиторий. Несмотря на основную сюжетную линию, контент 6+ будет отличаться от 18+ диалогами, сценами и второстепенными героями.

4. Со временем контент будет становиться все более гиперкастомизированным. В зависимости от профиля зрителя и сценарий, и видеоконтент будут генерироваться на лету. Мы получим бесконечные персональные сериалы на любую тему — с обратной связью от зрителя. Добро пожаловать в эхо-камеру от нетфликса с беспрецедентными возможностями по формированию общественного мнения и продвижению тех или иных ценностей.

5. Известные актеры перестанут сниматься и начнут лицензировать свой образ. Да что там, не только актеры, но и узнаваемые люди, виртуальные аватары и люди-бренды с миллионами подписчиков — сама профессия актера будет менее востребована.

Да, дорога к славе через Голливуд со временем закроется и для актеров, и для сценаристов. Зато понадобятся креативные директора (для валидации идей), продюсеры (для извлечения денег из инвесторов) и менеджеры (для запуска и проработки многочисленных суб-франшиз). Изменится даже индустрия пиратства, ведь пиратить придется не контент, а модели для производства контента.

Все это перевернет традиционные подходы, принятые в бизнесе по производству и распространению фильмов и сериалов, а ведь мы рассмотрели влияние только на несколько индустрий с глобальным объемом рынка в сотни миллиардов долларов.

И сокращения уже начались, но даже не в Голливуде, а в ИТ-компаниях. Вот хроники сокращений только за последние несколько месяцев: Amazon — 18 000 человек, Google — 12 000 человек, Facebook — 11 000 в ноябре 2022 года и еще 10 000 человек в этом году, Microsoft — 10 000 человек, Salesforce — 7 900 человек, Dell — 6 650 человек, IBM — 3 900 человек, Goldman Sachs — 3 200 человек, Capital One — 1 100 человек. Это белые воротнички, включая разработчиков, которые уже не так нужны и не так эффективны, и дальше — больше.

Искусственный интеллект позволит людям казаться умнее

ChatGPT уже сдал MBA экзамен в бизнес-школе Wharton, экзамен на получение медицинской лицензии, а значительное число студентов Стэнфорда использовали ChatGPT для сдачи домашних работ и экзаменов. Шокирует? Посмотрите результаты экзаменов, которые может сдавать GPT-4 (мультимодальная большая языковая модель, способная принимать не только текст, но и изображения), включая продвинутый экзамен на сомелье, экзамены по истории искусств, физике и статистике.

Любой вызов, который бросает генеративный искусственный интеллект, требует ответа. ChatGPT научился писать эссе за студентов — разработчики предложили инструменты для проверки текста на предмет участия в его написании искусственного интеллекта. Практически сразу пользователи научились просить ChatGPT написать текст таким образом, чтобы он проходил проверку. Это наглядный пример попытки противодействовать новым парадигмам старыми инструментами. Кажется, пора признать, что мир теперь устроен по-другому, ретроградам в нем не место, и начать пересборку придется со своего собственного майндсета.

И здесь я вижу принципиальную развилку:

1. Мы станем умнее и эффективнее с новыми интеллектуальными инструментами, потому что сможем получать ответы на любые вопросы быстрее?

2. Мы станем глупее, ленивее и еще более зависимы от технологий, потому что искать информацию и думать самостоятельно станет ненужным?

Думаю, второй вариант более реалистичен, ведь фильтры соцсетей и приложения для ретуши дали возможность всем выглядеть красивыми, а искусственный интеллект — это фильтр для человеческого интеллекта, который позволит всем выглядеть умными.

Как скоро мы получим ИИ-божество и связанный с ним культ?

Ответы ChatGPT так похожи на человеческие, что пользователи всерьез задаются вопросом, а нет ли у ChatGPT сознания, чувств, эмоций, не обижается ли он на хамство. На все вопросы правильный ответ — «нет», но если модели постоянно хамить, она в конечном счете начнет хамить в ответ, потому что пользователи научат ее именно этому.

Тем не менее, человек склонен искать сознание там, где его нет, демонизировать и боготворить технологии, защищаться от вышек связи 5G и верить в чипирование вакцинами. Заговоры и мистика гораздо интереснее унылых будней, они позволяют забыть об актуальных проблемах и острых вопросах. Например, в феврале количество инцидентов стрельбы в школах в США превышало количество дней с начала года, а с новостных полос не сходило обсуждение китайского разведывательного воздушного шара.

Все эти темы поднимались в «Секретных материалах» еще 30 лет назад. Наше желание верить гораздо сильнее любых фактов или доводов ученых. В контексте обсуждения чувств, эмоций, страданий и боли, которую испытывают большие языковые модели, вполне вероятно, что мы увидим движение «AI lives matter», популисты будут создавать организации, защищающие права искусственного интеллекта, ИИ-жрецы будут формировать новые ветви христианства, а способный ответить на любые вопросы бытия искусственный интеллект станет новым универсальным божеством, гиперкастомизированным, понимающим, апеллирующим к персональным потребностям каждого.

Топ криптоплатформ | Июль 2024
Топ криптоплатформ | Июль 2024
Топ криптоплатформ | Июль 2024

Trusted

Согласно правилам Trust Project, данная статья отражает точку зрения автора и может не совпадать с мнением редакции BeInCrypto. Политика BeInCrypto — освещать любые события беспристрастно и соблюдать высочайшие стандарты журналистики. BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены

rus_userpic_basic.jpg
Карина Крупенченкова
Карина Крупенченкова, криптожурналист, PR-менеджер, член Национального союза журналистов Украины, член Международной Федерации журналистов. Специалист по партнерствам с опытом работы в криптовалютной индустрии.
READ FULL BIO
Sponsored
Sponsored