Воскресенье, 12, апр, 3:38

Прогнозы, сценарии и рекомендации от Norton Rose.

Британские юристы из Norton Rose Fulbright подготовили подробный анализ того, как использование генеративного искусственного интеллекта может повлиять на сохранение адвокатской привилегии. Эксперты рассмотрели несколько типичных сценариев и дали рекомендации по защите конфиденциальной информации, сообщает Norton Rose Fulbright.

С ростом популярности ИИ-инструментов среди юристов и их клиентов возникает важный вопрос: будут ли защищены привилегией запросы к нейросетям и сгенерированные ими ответы? В английском праве пока нет прецедентов по этому вопросу, но существующие принципы позволяют сделать определенные прогнозы.

Авторы напоминают, что адвокатская привилегия бывает двух видов: привилегия на юридическую консультацию защищает переписку между клиентом и юристом, а привилегия на судебный процесс распространяется на подготовку к уже ведущимся или ожидаемым разбирательствам.

Первый сценарий — сотрудник компании напрямую спрашивает совета у чат-бота. По мнению экспертов, такая коммуникация вряд ли будет защищена, поскольку нейросеть не является "юристом" в правовом смысле. Верховный суд Великобритании уже называл ИИ "машиной без правосубъектности".

Второй рискованный сценарий — когда клиент загружает в открытую модель вроде ChatGPT уже полученный от адвоката конфиденциальный совет, чтобы попросить сделать выжимку. Это может привести к потере привилегии из-за раскрытия тайны. Судебные органы предупреждают: любая информация, введенная в публичный чат-бот, считается опубликованной на весь мир.

Если же используется защищенная корпоративная ("закрытая") модель ИИ и соблюдены все меры конфиденциальности, то созданное резюме юридической консультации, вероятно, сохранит защиту. Однако это еще не подтверждено судебной практикой.

Третий сценарий касается экспертов, привлекаемых для судебных процессов. Если специалист использует ИИ для подготовки заключения, его взаимодействие с нейросетью может попадать под привилегию, но только при условии сохранения строгой конфиденциальности. Экспертные соглашения стоит дополнить пунктами о допустимых инструментах.

Четвертая ситуация — использование ИИ для расшифровки внутренних обсуждений потенциально спорных вопросов. Если разговор не был привилегированным, его расшифровка также не получит защиты и может быть использована против компании в суде.

Авторы призывают проявлять осторожность и не полагаться на автоматические ИИ-инструменты при обсуждении чувствительных юридических вопросов. Оптимальная стратегия — разработать четкие внутренние политики использования ИИ для работы с конфиденциальной информацией.