Вчера / 10:25
В Казани зафиксированы 8 прилетов дронов
Вчера / 20:52
Президент Ирана предложил заменить риал на туман
Вчера / 19:55
Блейк Лайвли обвинила режиссера и актера «Все закончится на нас» в домогательствах
Вчера / 18:40
Игроки Escape from Tarkov из РФ пожаловались на проблемы с входом в игру
Вчера / 17:58
«Я не готова с вами прощаться»: Милли Бобби Браун расплакалась на финале съемок «Очень странных дел»
Обновлено вчера в 17:35
В Москве и Королеве эвакуировали торговые центры из‑за взрывов пиротехники
Вчера / 16:39
Том Харди собирался заплатить строителям декораций для сериала Гая Ричи
Вчера / 15:54
Джесси Айзенберг считает, что роль Лекса Лютора «нанесла реальный вред его карьере»
Вчера / 15:38
«Первое мистическое приключение года»: вышел трейлер «Охотников за призраком»
Вчера / 14:58
В Вологде открыли памятник Сталину и почтили память жертв репрессий
Вчера / 14:25
«Хочу сбежать на далекий остров»: создатель «Игры в кальмара» устал от Netflix и сериала
Вчера / 13:20
«Анора», Кендрик Ламар, Навальный: Барак Обама назвал любимые фильмы, песни и книги 2024 года
Вчера / 12:46
Наследники королевской семьи Греции подали заявления на гражданство родины под экзотической фамилией
Вчера / 12:21
На уборку мазута с пляжей Краснодарского края может уйти около месяца
Вчера / 11:13
Джаред Лето сыграет Скелетора во «Властелинах вселенной»
Вчера / 09:36
Тизер «Супермена» Джеймса Ганна стал самым популярным в истории Warner Bros.
Обновлено вчера в 01:51
На рождественской ярмарке в Магдебурге погибли два человека. Ранены в результате наезда более 60
Вчера / 01:37
Джош Хартнетт и Дакота Джонсон присоединятся к экранизации «Тайного дневника Верити»
Вчера / 00:56
Ана де Армас и Оскар Айзек снимутся в сериале «Бананы» Дэвида О.Расселла
Вчера / 00:25
WhatsApp обязали предоставлять информацию о пользователях по запросу спецслужб
20 декабря / 23:48
Появились кадры Харрисона Форда в образе Красного Халка из «Первого мстителя: Дивного нового мира»
20 декабря / 23:46
Фильм о Джулиане Ассанже сняли с фестиваля «Сандэнс» за месяц до показа, чтобы доработать
20 декабря / 22:59
Мэрайя Кэри провела шоу в Fortnite
20 декабря / 22:54
Сериал «Плохая обезьяна» с Винсом Воном продлили на второй сезон
20 декабря / 22:17
Том Холланд назвал отношения с Зендаей лучшим событием в жизни
20 декабря / 21:50
YouTube начнет удалять видео с кликбейтом без предупреждения
20 декабря / 21:42
Ремейк «Мумии» выйдет на экраны весной 2026 года. Его поставит Ли Кронин
20 декабря / 20:50
Работа над фильмами о Бонде остановлена из‑за разногласий о будущем франшизы
20 декабря / 20:32
В Великобритании кондитер испекла пряничный домик с бриллиантами за 817 миллионов рублей
20 декабря / 19:58
Песню Робби Уилльямса исключили из шорт-листа «Оскара»
20 декабря / 19:40
Российским фигуристам и конькобежцам разрешили отбираться на Олимпиаду-2026
20 декабря / 18:59
Съемки финального сезона «Очень странных дел» завершились
20 декабря / 18:28
В Индии женщина пожаловалась в суд на мужа за то, что он любит ее меньше, чем кошку
20 декабря / 17:58
Синоптик рассказал, какая погода ждет россиян на Новый год
20 декабря / 17:55
Маргариту Симоньян наградили орденом «За заслуги перед Отечеством»

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

31 мая 2023 в 15:53
Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям