Сегодня / 08:36
Оливия Родриго: «Если парень хочет полететь в космос, это красный флаг»
Сегодня / 10:09
Райан Рейнолдс пишет сценарий нового фильма, чтобы воссоединиться с Шоном Леви и Хью Джекманом
Вчера / 20:24
Том Холланд гуглит новости о Зендае, чтобы убедиться, что их отношения в порядке
Вчера / 19:17
Роспотребнадзор проверит школы и детсады после сообщений о вспышке вируса Коксаки
Вчера / 18:13
Эрнст: «Айфон — чудовищная вещь для человечества. Джобс стоит в череде персонажей рядом с Гитлером»
Вчера / 16:55
Хидэо Кодзима о «Джокере: Безумие на двоих»: «Лет через 10–20 на него наверняка посмотрят по-новому»
Вчера / 16:47
Джеймс Ван Дер Бик рассказал, что у него диагностировали рак толстой кишки
Вчера / 16:13
В Fortnite добавят Эминем-пулемет
Вчера / 15:59
Sony работает над фильмом про спецагента Венома
Вчера / 15:21
Больше 600 тыс. зрителей посмотрели «Преступление и наказание» с Янковским в день премьеры
Вчера / 14:16
В Великобритании женщины узнали, что их перепутали в роддоме, спустя 57 лет
Вчера / 13:38
Умерла легенда джаза и соула Куинси Джонс
Вчера / 13:30
Патриарх Кирилл: «Иисус Христос смертную казнь не осуждал»
Вчера / 11:25
Вышел тизер третьего сезона «Ходячие мертвецы: Дэрил Диксон»
Вчера / 11:02
Cartoon Network выпустил спецэпизод «По ту сторону изгороди»
Вчера / 10:45
16 тыс. видов деревьев находятся под угрозой исчезновения
Вчера / 10:15
Майк Тайсон рассказал, что случайно принял Хасбика за ребенка
Вчера / 09:44
Православный мессенджер «Зосима» представят 13 ноября
Вчера / 09:15
Киран Калкин до сих пор не посмотрел финал «Наследников»
3 ноября / 20:40
Опрос: жители Москвы считают, что Трамп победит на выборах в США
3 ноября / 19:51
МИД РФ переименовал департамент сотрудничества с Европой в департамент проблем
3 ноября / 18:50
3344 иностранца с начала года получили гражданство РФ за участие в спецоперации
3 ноября / 17:49
Короля и королеву Испании забросали грязью в Валенсии, сильно пострадавшей от наводнения
3 ноября / 16:56
Девушка из Китая выяснила, что она из приемной семьи, после постоянных шуток об этом на работе
3 ноября / 16:28
В Псковской области из аквариумных рыбок «производили» филе гребешка и мясо краба
3 ноября / 15:56
В Финляндии закрылся единственный музей Ленина вне РФ
3 ноября / 15:32
Baza: Канье Уэст может выступить в Петербурге в ноябре
3 ноября / 14:56
В Перми пропал первый трудоустроенный кот в России. За его поимку обещано вознаграждение
3 ноября / 14:55
Древнеримская плотина спасла муниципалитет Испании от затопления
3 ноября / 13:59
На организатора концерта Big Baby Tape, продавшего лишние билеты, составили «митинговый» протокол
3 ноября / 13:40
С 5 ноября до 85% территории РФ покроется снегом
3 ноября / 12:58
Жителей Нью-Йорка призвали экономить воду
3 ноября / 12:23
Иранская студентка вышла на улицу в нижнем белье, протестуя против обязательного ношения хиджаба
3 ноября / 11:09
В Японии арестовали создателей сайта спойлеров к аниме и фильмам
3 ноября / 09:57
В Telegram появятся новые функции мини-приложений, включая полноэкранный режим

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

31 мая 2023 в 15:53
Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям