Оксана Самойлова рассказала, что ее коза Мими умерла
Тимоте Шаламе разговаривает с Гвинет Пэлтроу в первом отрывке из фильма «Марти Великолепный»
«Австралийский герой»: сирийцу, обезоружившему террориста в Сиднее, пожертвовали 2,5 млн долларов
К фонтану Треви в Риме сделают платный вход. Ежегодно из фонтана достают десятки тонн монет
Немецкий шпиц ― самая популярная порода собак у россиян в 2025 году
Тимоти Шаламе записал фит с EsDeeKid, подыгрывая слухам о том, что анонимный рэпер ― его альтер эго
Треть россиян поставят на новогодний стол готовые блюда из магазина
Запашный: интернет снижает интерес зрителя к работе иллюзионистов
В России стало меньше караоке-залов
Бренд Seven Lab представил новую коллекцию
Wildberries проведет ребрендинг пунктов выдачи заказов
В Москве у причалов речного транспорта установили автоматы для пополнения карт «Тройка»
В России заблокировали сервис помощи незрячим людям Be My Eyes
Мошенники стали обманывать россиян c помощью игры в «Тайного Санту»
Джеймс Кэмерон реанимировал крысу на съемкках фильма «Бездна»
Джеймс Кэмерон рассказал, что первая версия третьего «Аватара» длилась почти 4 часа
Nike выпустил чемоданы со специальным отсеком для кроссовок
Netflix продлил на второй сезон сериал «Икусагами: Последний выживший самурай»
Копирайтер, SMM-менеджер и коуч войдут в новый классификатор профессий в России с 2026 года
Serebro выпустили песню «Снег идет». Релиз не понравился первой исполнительнице трека — Глюкозе
Джейк Коннелли из «Очень странных дел» 1,5 года врал всем, что снимается в документалке про майонез
Converse представил необычную кампанию в духе нулевых. Ее автором стала художница Лоиси Коэн
Звезды «Милых обманщиц» Люси Хейл и Иэн Хардинг воссоединятся в ленте «12 дней Рождества»
В Усть-Каре создадут первый в России официальный медвежий патруль
В 2025 году россияне чаще всего отдыхали за границей весной
«Простые вещи» и Wolee выпустят коллекцию с работами художников с ментальными особенностями
Артисты из «Уральских пельменей» вступились за ДК «Химмаш» в Екатеринбурге
Wildberries запустил платформу экспресс-доставки еды

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям