Сослался на фейковое дело — получил уголовку. Адвокатов больше не прощают за баловство с ChatGPT
NewsMakerДа, оправдание «ИИ меня подставил» не сработает...
В Лондоне вынесено прецедентное решение: юристы, ссылающиеся на несуществующие судебные дела, могут быть привлечены к ответственности за неуважение к суду, а в крайних случаях — даже по уголовной статье. Такое постановление вынес Лондонский суд, рассмотрев два дела, в которых адвокаты использовали генеративный искусственный интеллект для подготовки процессуальных документов.
Как выяснилось, в обоих случаях в письменных аргументах фигурировали ссылки на якобы существующие прецеденты, которых на самом деле не было. Судья Виктория Шарп указала, что подобные действия представляют угрозу для всей системы правосудия и подрывают общественное доверие к суду. Она подчеркнула, что технологические новшества не освобождают юристов от профессиональной ответственности.
Особое внимание в постановлении уделено роли юридического сообщества. По мнению судьи, юристы, занимающие руководящие должности, обязаны внедрять эффективные меры контроля за использованием ИИ в своей практике. Этические стандарты должны быть не формальностью, а частью повседневной работы. Речь идёт не только об ответственности конкретных исполнителей, но и о коллективной дисциплине.
Суд напомнил: намеренное предоставление ложной информации, особенно если она влияет на ход дела, может быть квалифицировано как попытка вмешательства в отправление правосудия — уголовное преступление по нормам общего права. Даже если адвокат действует без злого умысла, простая небрежность в обращении с ИИ-данными уже нарушает профессиональный долг — не вводить суд в заблуждение.
Хотя регуляторы уже публиковали рекомендации по использованию нейросетей в юридической практике, судья Шарп считает, что этого недостаточно. Публичные инструкции, по её мнению, не заменяют системного контроля. Необходимы реальные инструменты обучения и санкционирования, чтобы избежать повторения подобных инцидентов.
С момента, когда ChatGPT и другие нейросети получили массовое распространение, суды по всему миру сталкиваются с новой проблемой: автоматическая генерация убедительных, но ложных аргументов. Поскольку модели ИИ обучаются на огромных массивах текстов и формируют ответы на основе статистической вероятности, они могут «галлюцинировать» — то есть создавать несуществующие факты с полной уверенностью в их правдоподобности.
Так называемые «галлюцинации» нейросетей уже стали причиной нескольких скандальных разбирательств. Самый известный случай произошёл в США: два нью-йоркских адвоката были оштрафованы по 5000 долларов каждый после того, как представили суду шесть фиктивных судебных решений. Все ссылки были сгенерированы ChatGPT, а сами юристы не проверили их достоверность.
Разбирательство проходило в рамках дела о причинении вреда здоровью. Судья обратил внимание на странные формулировки в представленных документах и затребовал подтверждение. После дополнительной проверки выяснилось, что приведённые прецеденты никогда не существовали. При этом их структура и стиль были настолько правдоподобны , что ошибки не заподозрил ни один из участников процесса.
В отсутствие универсального механизма проверки ссылок юристы по-прежнему сами несут ответственность за достоверность используемой информации. Искусственный интеллект не обладает способностью к верификации — он лишь воспроизводит структуру ранее встречавшихся текстов. Это делает его потенциально опасным в тех сферах, где точность имеет критическое значение.
Теперь же у судей есть основания требовать от адвокатов строгой верификации всех источников, вне зависимости от того, вручную ли они составляют документ или используют нейросеть.
Значимость постановления также заключается в его предостерегающем характере. Оно задаёт рамки допустимого для всей правовой системы и даёт понять: новая технология не отменяет старых обязанностей. Любой, кто работает в суде, должен помнить — автоматизация не освобождает от ответственности.
Таким образом, ИИ в юридической сфере становится не просто инструментом, а фактором риска. Если раньше ошибки адвокатов были делом человеческой невнимательности, теперь к ним добавляется необходимость контролировать работу алгоритмов . И пока такие алгоритмы не научатся проверять факты, вся тяжесть последствий будет ложиться на плечи людей.

Как выяснилось, в обоих случаях в письменных аргументах фигурировали ссылки на якобы существующие прецеденты, которых на самом деле не было. Судья Виктория Шарп указала, что подобные действия представляют угрозу для всей системы правосудия и подрывают общественное доверие к суду. Она подчеркнула, что технологические новшества не освобождают юристов от профессиональной ответственности.
Особое внимание в постановлении уделено роли юридического сообщества. По мнению судьи, юристы, занимающие руководящие должности, обязаны внедрять эффективные меры контроля за использованием ИИ в своей практике. Этические стандарты должны быть не формальностью, а частью повседневной работы. Речь идёт не только об ответственности конкретных исполнителей, но и о коллективной дисциплине.
Суд напомнил: намеренное предоставление ложной информации, особенно если она влияет на ход дела, может быть квалифицировано как попытка вмешательства в отправление правосудия — уголовное преступление по нормам общего права. Даже если адвокат действует без злого умысла, простая небрежность в обращении с ИИ-данными уже нарушает профессиональный долг — не вводить суд в заблуждение.
Хотя регуляторы уже публиковали рекомендации по использованию нейросетей в юридической практике, судья Шарп считает, что этого недостаточно. Публичные инструкции, по её мнению, не заменяют системного контроля. Необходимы реальные инструменты обучения и санкционирования, чтобы избежать повторения подобных инцидентов.
С момента, когда ChatGPT и другие нейросети получили массовое распространение, суды по всему миру сталкиваются с новой проблемой: автоматическая генерация убедительных, но ложных аргументов. Поскольку модели ИИ обучаются на огромных массивах текстов и формируют ответы на основе статистической вероятности, они могут «галлюцинировать» — то есть создавать несуществующие факты с полной уверенностью в их правдоподобности.
Так называемые «галлюцинации» нейросетей уже стали причиной нескольких скандальных разбирательств. Самый известный случай произошёл в США: два нью-йоркских адвоката были оштрафованы по 5000 долларов каждый после того, как представили суду шесть фиктивных судебных решений. Все ссылки были сгенерированы ChatGPT, а сами юристы не проверили их достоверность.
Разбирательство проходило в рамках дела о причинении вреда здоровью. Судья обратил внимание на странные формулировки в представленных документах и затребовал подтверждение. После дополнительной проверки выяснилось, что приведённые прецеденты никогда не существовали. При этом их структура и стиль были настолько правдоподобны , что ошибки не заподозрил ни один из участников процесса.
В отсутствие универсального механизма проверки ссылок юристы по-прежнему сами несут ответственность за достоверность используемой информации. Искусственный интеллект не обладает способностью к верификации — он лишь воспроизводит структуру ранее встречавшихся текстов. Это делает его потенциально опасным в тех сферах, где точность имеет критическое значение.
Теперь же у судей есть основания требовать от адвокатов строгой верификации всех источников, вне зависимости от того, вручную ли они составляют документ или используют нейросеть.
Значимость постановления также заключается в его предостерегающем характере. Оно задаёт рамки допустимого для всей правовой системы и даёт понять: новая технология не отменяет старых обязанностей. Любой, кто работает в суде, должен помнить — автоматизация не освобождает от ответственности.
Таким образом, ИИ в юридической сфере становится не просто инструментом, а фактором риска. Если раньше ошибки адвокатов были делом человеческой невнимательности, теперь к ним добавляется необходимость контролировать работу алгоритмов . И пока такие алгоритмы не научатся проверять факты, вся тяжесть последствий будет ложиться на плечи людей.