Суд отправил адвоката на «курсы по ИИ» после того, как тот использовал ChatGPT для ссылок на несуществующие дела

Как человеку, который очень не хочет оказаться в тюрьме, мне бы не хотелось, чтобы мой адвокат использовал ИИ для консультаций в зале суда. Видимо, мне повезло, что я не был тем должником, который нанял юридическую фирму Semrad Law Firm в деле о банкротстве в прошлом году (по данным Damien Charlotin). Фирма и её адвокат Томас Нильд получили выговор от судьи Майкла Слейда за использование ChatGPT для поиска юридических прецедентов.

Проблема в том, что дела, на которые ссылался ChatGPT и которые Нильд представил в суде, оказались вымышленными.

Дело о банкротстве длится с 2024 года, но ИИ вмешался в процесс только в прошлом месяце. После серии переговоров Нильд и его фирма подали план погашения долга по главе 13 (документ, описывающий, как должник будет возвращать деньги кредитору). Однако кредитор, компания Corona Investments LLC, не согласился с предложенным планом и подал возражение, оспаривая его выполнимость.

Здесь ситуация стала странной. Нильд и Semrad подали ответ, утверждая, что Corona не имеет права оспаривать выполнимость плана. Это вызвало недоумение у судьи Слейда, который начал проверять указанные прецеденты и обнаружил серьёзные проблемы.

Нильд сослался на четыре судебных дела: In re Montoya, 341 B.R. 41 (Bankr. D. Utah 2006), In re Coleman, 373 B.R. 907 (Bankr. W.D. Wis. 2007), In re Russell, 458 B.R. 731 (Bankr. E.D. Wis. 2011) и In re Jager, 344 B.R. 349 (Bankr. D. Colo. 2006). Однако:

  • In re Montoya: Судья Слейд обнаружил, что цитаты, приведённые Нильдом, отсутствуют в тексте решения, а само дело вообще не касается вопроса правомочности.
  • In re Coleman: Дело происходило в Миссури, а не в Висконсине, и цитаты снова не соответствовали реальному тексту.
  • In re Russell: Дело было в Вирджинии, а не в Висконсине, и снова цитаты оказались вымышленными.
  • In re Jager: Судья констатировал, что такого дела «вообще не существует».

«Подводя итог, г-н Нильд сослался на четыре дела, но ни одно из них не соответствует реальности. Более того, ни одна из цитат в его документе не является подлинной», — заключил судья.

В результате судья постановил, что Нильд должен пройти обучение по использованию ИИ в юридической практике, чтобы избежать подобных ошибок в будущем.

ИИ: Этот случай ещё раз подчёркивает риски слепого доверия к генеративному ИИ в профессиональной сфере, особенно там, где ошибки могут иметь серьёзные последствия.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии