Сегодня / 15:05
МУС выдал ордер на арест премьер-министра Израиля Биньямина Нетаньяху
Сегодня / 19:00
В Южной Корее девушку заставили раздеться и гигиеническую показать прокладку на досмотре в аэропорту
Сегодня / 18:57
«Короля Талсы» могут продлить сразу на два сезона
Сегодня / 18:15
Экс-худрук Большого театра Алексей Ратманский подписал контракт с Национальным балетом Нидерландов
Сегодня / 18:09
Илон Маск поставил рекорд по скоростному прохождению в Diablo-4
Сегодня / 17:51
A24 показала трейлер «Партенопы» — нового фильма Паоло Соррентино
Сегодня / 16:57
Руководители «Афиши» рассказали о пользе спецпроектов и организации фестивалей
Сегодня / 16:50
В американском городе взорвут старый отель на Новый год
Сегодня / 16:32
Вышел трейлер «Уоллес и Громит: Самая дикая месть»
Сегодня / 16:05
Vanity Fair нашел «тайную музу» Кормака МакКарти. Они начали отношения, когда ему было 42, а ей 16
Сегодня / 15:45
Новый «Ведьмак» расскажет о молодом Геральте
Сегодня / 15:33
Исполнительница роли Милхауса Памела Хейден заявила об уходе из «Симпсонов»
Сегодня / 15:13
Американка жаловалась на звуки животных под домом. Оказалось, их издавал голый мужчина
Сегодня / 13:50
Минцифры хочет отправить айтишников педагогами в вузы, чтобы их компании могли продлить аккредитацию
Сегодня / 13:49
Большинство тиктоков об СДВГ вводят в заблуждение
Сегодня / 12:55
Ангела Меркель обращалась за советом к папе римскому, когда Дональд Трамп впервые стал президентом
Сегодня / 12:32
В Астраханской области подросток покончил с собой после буллинга в школе
Сегодня / 11:56
Институт Пушкина выбрал слово 2024 года. Это «Пушкин»
Сегодня / 11:19
Россиянин стал учеником гадалки и развел ее на 2 млн рублей
Сегодня / 10:58
В Сестрорецке сгорел шалаш Ленина
Сегодня / 10:41
Российские авиакомпании перестали использовать половину Airbus A320/А321neo из‑за санкций
Сегодня / 10:05
Банан, приклеенный скотчем к стене, продали на аукционе за 6,2 млн долларов
Сегодня / 09:54
В Новой Зеландии задержали нарушителя всего через три минуты после появления нового закона
Сегодня / 08:47
Роберт Паттинсон снова поработает с Кристофером Ноланом
Сегодня / 02:10
Кембриджский словарь назвал словом года глагол «манифестировать»
Сегодня / 01:37
Майли Сайрус выпустит альбом «Something Beautiful», вдохновленный группой Pink Floyd
Сегодня / 01:11
СМИ: Дэниел Крейг сыграет в фильме «Сержант Рок» от DC Studios, который снимет Лука Гуаданьино
Сегодня / 00:37
Шер заявила, что ее бывший муж Сонни Боно серьезно думал о расправе над ней
Вчера / 23:37
Энн Хэтэуэй снимется в экранизации романа «Тайный дневник Верити» Колин Гувер
Вчера / 22:40
Итальянская деревня предложила дома за 1 доллар американцам, недовольным президентскими выборами
Вчера / 22:01
Вышел трейлер многосерийного спин-оффа «Головоломки»
Вчера / 21:44
В Японии маникюрщица начала украшать ногти клиенток мусором из океана
Вчера / 21:01
Игры помогают строить карьеру ― доказано учеными
Вчера / 20:52
Картину Рене Магритта продали на аукционе за рекордную сумму
Вчера / 20:01
S.T.A.L.K.E.R. 2 все-таки вышел. Первые отзывы у игры смешанные

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

31 мая 2023 в 15:53
Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям
Читайте также