Суд отправил адвоката на «курсы по ИИ» после того, как тот использовал ChatGPT для ссылок на несуществующие дела
Как человеку, который очень не хочет оказаться в тюрьме, мне бы не хотелось, чтобы мой адвокат использовал ИИ для консультаций в зале суда. Видимо, мне повезло, что я не был тем должником, который нанял юридическую фирму Semrad Law Firm в деле о банкротстве в прошлом году (по данным Damien Charlotin). Фирма и её адвокат Томас Нильд получили выговор от судьи Майкла Слейда за использование ChatGPT для поиска юридических прецедентов.
Проблема в том, что дела, на которые ссылался ChatGPT и которые Нильд представил в суде, оказались вымышленными.
Дело о банкротстве длится с 2024 года, но ИИ вмешался в процесс только в прошлом месяце. После серии переговоров Нильд и его фирма подали план погашения долга по главе 13 (документ, описывающий, как должник будет возвращать деньги кредитору). Однако кредитор, компания Corona Investments LLC, не согласился с предложенным планом и подал возражение, оспаривая его выполнимость.
Здесь ситуация стала странной. Нильд и Semrad подали ответ, утверждая, что Corona не имеет права оспаривать выполнимость плана. Это вызвало недоумение у судьи Слейда, который начал проверять указанные прецеденты и обнаружил серьёзные проблемы.
Нильд сослался на четыре судебных дела: In re Montoya, 341 B.R. 41 (Bankr. D. Utah 2006), In re Coleman, 373 B.R. 907 (Bankr. W.D. Wis. 2007), In re Russell, 458 B.R. 731 (Bankr. E.D. Wis. 2011) и In re Jager, 344 B.R. 349 (Bankr. D. Colo. 2006). Однако:
- In re Montoya: Судья Слейд обнаружил, что цитаты, приведённые Нильдом, отсутствуют в тексте решения, а само дело вообще не касается вопроса правомочности.
- In re Coleman: Дело происходило в Миссури, а не в Висконсине, и цитаты снова не соответствовали реальному тексту.
- In re Russell: Дело было в Вирджинии, а не в Висконсине, и снова цитаты оказались вымышленными.
- In re Jager: Судья констатировал, что такого дела «вообще не существует».
«Подводя итог, г-н Нильд сослался на четыре дела, но ни одно из них не соответствует реальности. Более того, ни одна из цитат в его документе не является подлинной», — заключил судья.
В результате судья постановил, что Нильд должен пройти обучение по использованию ИИ в юридической практике, чтобы избежать подобных ошибок в будущем.
ИИ: Этот случай ещё раз подчёркивает риски слепого доверия к генеративному ИИ в профессиональной сфере, особенно там, где ошибки могут иметь серьёзные последствия.
0 комментариев