Хотя на первый взгляд ChatGPT выглядит безобидным и полезным инструментом, он может радикально изменить нашу экономику и общество. Это наводит на тревожные мысли о возникновении последствий использования ИИ, к которым мы, возможно, пока не готовы.– и мы, возможно, не готовы к ним.
Работающий на основе искусственного интеллекта (AI) ChatGPT в конце 2022 года буквально взорвал Интернет. В отличие от большинства других чат-ботов, он понимает смысл и контекст сообщений и генерирует человекоподобные ответы. ChatGPT может придумать сюжет книги или сценарий фильма, написать код и найти ошибки в уже существующем, составить резюме и решить еще сотни задач за считанные секунды. Технология оказалась настолько впечатляющей, что привлекла более миллиона пользователей всего за пять дней после запуска.
Но несмотря на поразительную производительность чат-бота, созданный OpenAI инструмент вызвал опасения у ученых и экспертов из других областей. Доктор Бретт Вайнштейн, автор и бывший профессор эволюционной биологии, сказал: «Мы не готовы к ChatGPT». Такого же мнения придерживается и Илон Маск, который был одним из сооснователей компании, но позже вышел из совета директоров. Он неоднократно заявлял о потенциальных опасностях ИИ и считает, его неограниченное использование представляет серьезную угрозу для существования человечества.
Как работает ChatGPT
ChatGPT – чат-бот с искусственным интеллектом, который может вовлечь вас в разговор так же, как это сделал бы человек. Он разработан, чтобы понимать ваши вопросы на различные темы и давать на них подробные ответы. Ответы программы не всегда идеально точны, но она все же отлично выполняет свою работу и создает ощущение, что вы разговариваете с реальным собеседником.
Для ответа на вопросы и поддержания диалога чатбот просматривает информацию в Интернете, используя прогностическую модель из массивного центра обработки данных. Это похоже на то, что делают Google и большинство поисковых систем. Затем его обучают и подвергают воздействию тонн данных, что позволяет ИИ очень хорошо предсказывать последовательность слов – вплоть до того, что он может составлять невероятно длинные объяснения.
Все это в равной степени впечатляет и вызывает серьезные опасения.
Опасности использования ИИ
Если вы все еще думаете, что искусственный интеллект можно увидеть только в футуристических фантастических фильмах, подумайте дважды. Многие технологические компании, такие как Netflix, Uber, Amazon и Tesla, вовсю внедряют ИИ для улучшения своей работы и расширения бизнеса. Netflix создал на его основе алгоритм рекомендаций, который советует пользователям новый контент на основе их предпочтений. Uber использует ИИ для оптимизации маршрута движения. И это лишь пара примеров.
Этические проблемы ИИ
Согласно Википедии, этика искусственного интеллекта «является ветвью этики технологии, специфической для искусственно интеллектуальных систем. Иногда ее разделяют на озабоченность моральным поведением людей при разработке, создании, использовании и лечении искусственно интеллектуальных систем и озабоченность поведением машин в машинной этике».
Поскольку технологии быстро распространяются и становятся неотъемлемой частью нашей повседневности, организации разрабатывают этические кодексы ИИ. Однако какими бы нравственными они ни выглядели на бумаге, большинство этих руководящих принципов и рамок трудно применить к реальной жизни. Многие эксперты и видные деятели утверждают, что этика ИИ в значительной степени бесполезна, лишена смысла и последовательности.
Наиболее распространенными принципами ИИ являются благодеяние, автономия, справедливость, применимость и непричинение вреда. Но, как объясняет Люк Манн из Института культуры и общества при Университете Западного Сиднея, эти термины пересекаются и часто значительно меняются в зависимости от контекста. Другими словами, корпорации могут заявить, что они придерживаются таких принципов в соответствии с их собственным определением, не имея при этом реального отношения к ним в какой-либо степени. Авторы Рессегье и Родригес утверждают, что этика ИИ остается беззубой, поскольку используется вместо регулирования.
Давайте рассмотрим несколько связанных с развитием ИИ проблем, с которыми мы можем столкнуться на практике.
Предвзятость
Чтобы обучить системы искусственного интеллекта, необходимо снабжать их данными. Предприятиям необходимо убедиться в отсутствии предвзятости в отношении этнической, расовой или гендерной принадлежности. Один из ярких примеров – система распознавания лиц, которая может начать проявлять расовую дискриминацию в процессе машинного обучения.
Регулирование
Одной из самых больших проблем, связанных с ИИ, остается необходимость регулирования. Кто управляет и контролирует эти системы? Кто отвечает за принятие этих решений и кто может быть привлечен к ответственности?Отсутствие регулирования или законодательства даст большим компаниям возможность руководствоваться исключительно своими интересами и продвигать собственную повестку.
Конфиденциальность
По словам Манна, конфиденциальность – еще один расплывчатый термин, часто используемый корпорациями с двойными стандартами. Марк Цукерберг, к примеру, яростно защищал конфиденциальность пользователей Facebook. Однако за закрытыми дверями его компания продавала данные сторонним компаниям. Amazon использует станцию Alexa для сбора информации о клиентах, а кукла Hello Barbie от Mattel записывает то, что ей говорят дети.
Элитарность
Это одна из самых больших проблем Элона Маска. Демократизация ИИ, по его мнению, – это когда ни одна компания или небольшой круг лиц не имеет контроля над передовыми технологиями искусственного интеллекта. Это не то, что происходит сегодня. К сожалению, эта технология сосредоточена в руках немногих – крупных технологических корпораций.
ChatGPT не стал исключением
Несмотря на усилия Маска по демократизации ИИ, ChatGPT не стал исключением из правил. В 2019 году OpenAI, чья первоначальная миссия заключалась в ответственном развитии технологии на благо человечества, привлекла финансирование в размере $1 млрд от Microsoft, а затем перешла на кэппированную прибыль. Это означает, что компания должна будет вернуть в 100 раз больше, чем получила в качестве инвестиций. Учитывая этот факт, ChatGPT уже не кажется таким безобидным. Что, в свою очередь, подводит нас к некоторым тревожным размышлениям.
Невозможность распознавания поддельной экспертизы
ChatGPT – всего лишь прототип. В будущем у него появятся усовершенствованные версии и альтернативы, созданные конкурентами OpenAI. Это означает, что по мере развития технологии бот будет обрабатывать все больше данных, среди которых могут оказаться не соответствующие действительности факты. Доктор Брет Вайнштейн опасается, что это приведет к смешиванию реальных знаний и опыта с поддельными.
Развитие сознания
Бывший инженер Google Блейк Лемойн столкнулся с очевидным «разумным» ИИ в процессе тестирования. Он придумывал все более сложные вопросы, которые в какой-то мере заставляли машину отвечать на них с предубеждением.
Лемойн поинтересовался, какую религию бы выбрал ИИ, и машина ответила, что стала бы членом ордена джедаев. Это означает, что она не только поняла, что вопрос сложный, но и использовала чувство юмора, чтобы отклониться от неизбежного предвзятого ответа.
Доктор Вайнштейн также высказал свое мнение по этому поводу. Он считает, что на данном этапе у ИИ нет сознания, но мы не знаем, что может произойти при модернизации системы. По его словам, «это недалеко от того, что сейчас делает ChatGPT». Вайнштейн утверждает, что мы можем стимулировать тот же процесс с помощью технологии искусственного интеллекта, даже не подозревая об этом.
ИИ заберет работу у людей
Спекуляции по этому поводу весьма обширны. Некоторые считают, что ChatGPT заставит копирайтеров, дизайнеров, инженеров, программистов и многих других специалистов потерять работу из-за внедрения ИИ-технологий. Конечно, на это потребуется время, но вероятность такого развития событий весьма высока.
Подводим итоги
Массовое внедрение ИИ в целом и ChatGPT в частности говорит о неизбежном падении старой системы, которая не соответствует нынешнему устройству общества. Некоторые защитники технологий утверждают, что мы должны адаптироваться и найти способы сосуществовать бок о бок с прогрессивными инструментами. Но в то же время, нерегулируемое и неизбирательное использование технологий искусственного интеллекта создает множество рисков для всего человечества. Это означает, что принимать надлежащие меры нужно уже сейчас – иначе момент может быть упущен навсегда, а последствия превзойдут самые негативные ожидания.
Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.