Кейт Уинслет рассказала, что хотела найти замену себе для роли в фильме «Прощай, Джун»
Инженер Михаэла Бентхаус стала первым человеком в инвалидной коляске, побывавшим в космосе
В Москве на треть сократилось число сделок с жильем из‑за «эффекта Долиной»
В Вашингтоне прошли похороны одноцентовой монеты
Яхт-школа «Сила ветра» выпустила мини-сериал о морских приключениях
На станциях метро в Москве появились первые билетные автоматы нового поколения
СМИ: в этом году Петербург потратил на новогодние декорации почти втрое больше Москвы
Лили Коллинз вспомнила сцену из «Эмили в Париже», которая заставила ее плакать
В петербургском Доме музыки школьниц не пустили на концерт классической музыки из‑за возраста
Кейт Уинслет рассказала, что в детстве педагог советовала ей «смириться с ролями толстушек»
«Аэрофлот» разрешит посадку на самолет по биометрии во второй половине 2026 года
Директор Центра Гамалеи Александр Гинцбург покинул пост. Его сменил разработчик «Спутника V»
Благодаря новогодним каникулам норма рабочего времени на январь 2026 года составит 120 часов
В новозеландском заповеднике у бесплодной пары редчайших птиц вылупился птенец
СМИ: из Лувра похитили более 8000 бриллиантов и 212 жемчужин
Минобрнауки сократит около 45 000 платных мест в вузах
Драма «Нюрнберг» с Рами Малеком и Расселлом Кроу выйдет в «цифре» 23 декабря
«Кей-поп-охотницы на демонов» провели полгода в топ-10 Billboard — второй раз в истории саундтреков
Россияне рассказали, что будут дарить коллегам на Новый год
«Вкусвилл» выпустил лимитированный календарь с запахами каждого месяца
В Московском цирке пройдет музыкальная литургия с участием певицы Сюзанны
В Сальвадоре мужчину приговорили к 1335 годам тюрьмы
В Москве до 2030 года откроют 31 станцию метро
Китай впервые поставил сыр в Россию
«Схема Долиной» и «бабушкина схема» войдут в словарь неологизмов 2025 года
Зумеры слушают Iсegergert, а альфы — Madk1d: «Звук» назвал главные аудиотренды 2025 года в России
Кумайл Нанджиани считает роль в «Вечных» полезным уроком, несмотря на провал фильма
Сотрудника Елисейского дворца арестовали за кражу фарфора и серебра на 40 тыс. евро

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям