Американский адвокат Стивен Шварц воспользовался чат-ботом ChatGPT при подаче иска против колумбийской авиакомпании
Как пишет CNN, Роберто Мата подал иск на авиакомпанию Avianca о травмах, которые, по его словам, он получил от тележки обслуживания во время полета в 2019 году, указывая на небрежность со стороны сотрудника. Шварц, адвокат из фирмы Levidow, Levidow & Oberman, имеющий лицензию в Нью-Йорке более трех десятилетий, представлял интересы Маты.
В результате этого дела выяснилось, что по меньшей мере шесть прошлых дел Шварца «являются поддельными судебными решениями с поддельными цитатами и поддельными внутренними ссылками», заявил судья Кевин Кастел из Южного округа Нью-Йорка. В списке таких дел значатся крупные авиакомпании: China South Airlines, Delta Airlines, EgyptAir, Iran Air, United Airlines и KLM Royal Dutch Airlines.
Судья также заявил, что некоторых дел, о которых упоминал Шварц, вовсе не существовало. Кроме того, был случай, когда номер дела в одном исковом документе был перепутан с другим судебным исковым заявлением.
Сам же Шварц заявил, что никогда раньше не использовал ChatGPT в юридических делах до этого момента и «не был осведомлен о возможности его ложного содержимого». Однако он все же признал, что ответственность за использование ложных сведений лежит на нем. Юрист заявил, что «сожалеет о том, что использовал генеративный искусственный интеллект для дополнения юридических исследований». Он пообещал никогда не делать подобного снова.
Популярность ChatGPT привела к тому, что многие начали использовать чат-бота там, где не следовало. Например, американские студент использовали ChatGPT для написания эссе, однако в результате едва не лишились дипломов. Позднее студенты признались, что использовали ИИ при выполнении работы. Это привело к тому, что им отказали в выдаче дипломов.
Однако чат-бот вряд ли может состязаться с человеком в интеллектуальных способностях. В российском вузе нейросети сдали на «тройку» экзамен по истории. По словам принимающего преподавателя, чат-боты с легкостью справляются с экзаменами, где необходимо дать однозначный ответ на вопрос. Кроме того, ChatGPT одобрил для листинга высокорисковые токены, поэтому не смог достичь необходимого уровня точности анализа активов.
Согласно правилам Trust Project, BeInCrypto стремится предоставлять только непредвзятую и правдивую информацию. Цель этой новостной статьи — осветить событие точно и своевременно. Тем не менее, BeInCrypto рекомендует читателям самостоятельно проверять информацию и консультироваться со специалистом, прежде чем принимать любые финансовые решения на основе этого контента. Также обратите внимание, что наши «Условия и положения», «Политика конфиденциальности» и «Дисклеймеры» были обновлены.