Еще несколько лет назад юрист, использующий искусственный интеллект в работе, выглядел экспериментатором. Сегодня ситуация изменилась. ИИ постепенно становится для юриста, финансиста, аудитора, HR-специалиста или руководителя бизнеса таким же рабочим инструментом, как электронная почта, облачное хранилище, мессенджер или система электронного документооборота.
ИИ помогает быстрее структурировать большие массивы информации, анализировать документы, находить слабые места в аргументации, готовить проекты писем, договоров, процессуальных документов, справок и презентаций. Он не заменяет профессионала, но существенно повышает его скорость, аналитические способности и продуктивность.
Вместе с этим возникает вполне закономерный вопрос: если мы загружаем в нейросеть договор, судебные материалы, финансовую информацию, персональные данные или внутренние документы клиента — не создаем ли мы риск утечки конфиденциальной информации?
Для адвоката этот вопрос особенно чувствителен. Ведь речь идет не просто о «цифровой гигиене», а об адвокатской тайне, доверии клиента и профессиональной ответственности.
Риск существует всегда — вопрос в том, контролируем ли мы его
Абсолютной безопасности не существует ни в цифровом, ни в бумажном мире.
Документ можно потерять в электронной почте, в мессенджере, в облачном хранилище, на флешке, в ноутбуке, в бумажной папке или даже в такси. Бумажный документ можно украсть из офиса. Электронное письмо можно по ошибке отправить не тому адресату. Облачный аккаунт можно взломать из-за слабого пароля.
Поэтому профессиональный вопрос звучит не так: «Существует ли риск?». Риск существует всегда.
Правильный вопрос другой: является ли этот риск контролируемым, понятным и оправданным с учетом выбранного инструмента, типа информации и мер защиты?
Именно так мы давно относимся к электронной почте, облачным сервисам, мессенджерам, системам электронного суда, банковским приложениям и другим цифровым инструментам. Мы не отказываемся от них только потому, что они теоретически могут быть уязвимы. Мы оцениваем, кому доверяем информацию, на каких условиях, в какой юрисдикции, с какими гарантиями и с какими техническими ограничениями доступа.
К искусственному интеллекту нужно подходить так же: не с паникой, но и не с наивностью.
ИИ — это не просто «еще одно облако»
Когда адвокат отправляет клиенту договор по электронной почте или хранит материалы дела в облачном хранилище, он фактически доверяет информацию внешнему технологическому провайдеру. В этом смысле использование ИИ действительно можно сравнить с другими цифровыми сервисами.
Однако есть важный нюанс. В отличие от обычного облачного хранилища, пользователь часто не просто сохраняет файл, а просит систему проанализировать его содержание, обобщить, переписать, сравнить, найти риски или подготовить новый текст на его основе. То есть происходит активная интеллектуальная обработка информации.
Именно поэтому ИИ нельзя автоматически приравнивать к «еще одному диску для файлов». Его можно использовать безопасно, но только при условии понимания режима работы конкретного сервиса.
Сегодня на рынке есть несколько крупных и авторитетных ИИ-систем, которыми пользуются профессионалы: ChatGPT от OpenAI, Google Gemini, Claude от Anthropic и другие. Их не стоит воспринимать как одинаковые «черные ящики». У каждого сервиса есть собственные условия использования, настройки конфиденциальности, правила хранения данных, режим использования информации для улучшения моделей и отдельные условия для профессионального или корпоративного использования.
Например, OpenAI предоставляет пользователю возможность отключить использование чатов для обучения моделей через настройки Data Controls; кроме того, OpenAI отмечает, что для бизнес-продуктов и API данные по умолчанию не используются для обучения моделей. Google в своих материалах по Gemini также различает обычное использование Gemini Apps и использование Gemini в рамках Google Workspace: для пользователей без соответствующего режима Workspace Google прямо рекомендует не вводить конфиденциальную или чувствительную информацию, тогда как для Workspace с соответствующими средствами защиты отмечает, что запросы не используются для обучения моделей и не просматриваются людьми. Anthropic в отношении Claude также разделяет потребительские и коммерческие продукты: для коммерческих продуктов Anthropic указывает, что по умолчанию не использует входы/выходы для обучения моделей, тогда как в потребительских продуктах режим зависит от согласия пользователя, настроек и отдельных ситуаций безопасности просмотра.
Эти примеры важны не для рекламы конкретного сервиса. Они показывают другое: решающее значение имеет не название ИИ-модели, а режим, в котором она используется.
Одно дело — известный сервис с прозрачными условиями, понятными настройками конфиденциальности, возможностью управлять историей, отключать использование данных для обучения моделей, ограничивать доступ к аккаунту и работать в профессиональной среде.
Совсем другое дело — случайный бесплатный онлайн-сервис с непонятной юрисдикцией, непрозрачной политикой конфиденциальности и условиями, позволяющими использовать введенные пользователем данные для неизвестных или слишком широких целей.
Поэтому правильная формула такова: ИИ может быть профессиональным инструментом, но не каждая нейросеть и не каждый режим ее использования подходят для работы с конфиденциальной информацией.
Пример Telegram: привычный сервис не всегда означает безопасный сервис
Эту логику хорошо видно не только на примере ИИ, но и на примере мессенджеров.
Telegram для многих стал обычным способом коммуникации: там ведутся рабочие чаты, пересылаются документы, обсуждаются задачи, создаются каналы и группы. Но привычность сервиса еще не означает, что он автоматически подходит для любой категории информации.
Показательный пример — решение Национального координационного центра кибербезопасности при СНБО Украины в сентябре 2024 года. НКЦК принял решение ограничить использование Telegram в органах государственной власти, воинских формированиях, секторе безопасности и обороны, а также на объектах критической инфраструктуры. Речь шла, в частности, о запрете установки и использования Telegram на служебных устройствах соответствующих сотрудников, а причинами назывались риски кибератак, фишинга, вредоносного программного обеспечения, определения геолокации пользователей и другие угрозы в условиях войны. В то же время в публичных разъяснениях отмечалось, что это не является общим запретом Telegram для всех граждан и не касается личных смартфонов.
Этот пример важен не для того, чтобы демонизировать Telegram. Он показывает общий принцип: для обычного повседневного общения определенный сервис может быть приемлемым, но для служебных документов, государственной информации, военных данных или адвокатской тайны стандарт осторожности должен быть значительно выше.
С ИИ — то же самое. Вопрос не в том, «хорош» или «плох» конкретный сервис. Вопрос в том, соответствует ли выбранный инструмент характеру информации, которую мы ему передаем.
Адвокатская тайна никуда не исчезает
Для адвоката использование ИИ должно оцениваться не только с точки зрения удобства, но и через призму профессионального долга хранить адвокатскую тайну.
Закон Украины «Об адвокатуре и адвокатской деятельности» определяет адвокатскую тайну очень широко. К ней относится любая информация о клиенте, вопросы, с которыми он обращался, содержание консультаций и советов, составленные адвокатом документы, информация на электронных носителях и другие сведения, полученные в ходе осуществления адвокатской деятельности. Закон также прямо предусматривает, что адвокат обеспечивает защиту персональных данных о физическом лице, которыми он владеет, в соответствии с законодательством по вопросам защиты персональных данных.
Это означает следующее: закон не запрещает адвокату пользоваться электронной почтой, облачным хранилищем, системой электронного документооборота или искусственным интеллектом. Но закон и не освобождает адвоката от ответственности за то, каким именно инструментом он пользуется и были ли приняты разумные меры для защиты информации.
Если адвокат загрузил материалы дела в случайную бесплатную нейросеть, не прочитал условия пользования, не проверил политику конфиденциальности, не обезличил данные и не понимает, что происходит с информацией после ее загрузки, — это уже не «инновационность». Это профессиональная неосторожность.
Но если адвокат использует проверенный инструмент, понимает режим обработки данных, минимизирует объем конфиденциальной информации, по возможности обезличивает документы и не передает в систему лишнего, — это нормальная современная организация работы.
Не каждую информацию нужно загружать в ИИ
Нет универсального ответа на вопрос: «Можно ли загружать документы в ИИ?»
Нужно всегда уточнять: какие именно документы, в какой именно сервис, с какими настройками, с какой целью и в каком объеме?
Одно дело — попросить ИИ отредактировать обезличенный фрагмент договора, в котором стороны заменены на «Компания А» и «Компания Б», суммы удалены, а коммерческие условия обобщены. Другое дело — загрузить полный архив клиента с паспортными данными, банковскими реквизитами, внутренней перепиской, финансовыми таблицами и стратегией судебного спора.
В первом случае риск может быть минимальным и оправданным. Во втором — он может быть неприемлемым, если отсутствует надлежащий уровень контроля, понятные условия обработки данных и реальная необходимость передавать именно такой объем информации.
Особенно осторожно нужно обращаться с персональными данными, паспортными реквизитами, РНОКПП, адресами, банковскими счетами, медицинской информацией, материалами уголовных производств, внутренними корпоративными документами, коммерческой и банковской тайной, документами по M&A, инвестициям, структурированию бизнеса и процессуальной стратегией в судебных спорах.
В таких случаях стандарт должен быть простым: либо используется достаточно контролируемая профессиональная среда, либо данные предварительно обезличиваются, либо информация вообще не загружается.
Персональные данные — отдельный уровень ответственности
Когда адвокат или другой специалист загружает в ИИ документы, содержащие персональные данные, это может быть не просто «использованием удобного сервиса». С точки зрения законодательства о персональных данных речь идет об обработке информации в автоматизированной системе.
Закон Украины «О защите персональных данных» определяет обработку персональных данных как любое действие или совокупность действий, связанных, в частности, со сбором, регистрацией, накоплением, хранением, использованием, распространением, передачей, обезличиванием или уничтожением сведений о физическом лице.
Поэтому загрузка документов во внешний ИИ-сервис может фактически означать передачу или иную форму обработки персональных данных через технологического провайдера. Соответственно, для профессиональной работы нужно думать не только об адвокатской тайне, но и о более широком режиме конфиденциальной информации: персональные данные, коммерческая тайна, договорные NDA, внутренние политики клиента, банковская, медицинская или другая специально защищенная информация.
Практическая модель: красная, желтая и зеленая зоны
Чтобы не превращать тему в абстрактную дискуссию, её можно объяснить с помощью трёх зон риска.
Красная зона — это использование случайных, бесплатных или непрозрачных ИИ-сервисов для обработки реальных клиентских документов. Особенно если пользователь не знает, кто является провайдером, в какой юрисдикции он работает, используются ли введенные данные для обучения модели, как долго они хранятся, кто имеет к ним доступ и можно ли их удалить.
В эту зону нельзя загружать реальные договоры, материалы судебных дел, персональные данные, финансовые документы, корпоративные структуры, внутреннюю переписку, медицинскую информацию, данные уголовных производств или документы, содержащие коммерческую тайну.
Желтая зона — это использование известного ИИ-сервиса с настройками конфиденциальности, минимизацией объема информации и предварительной деперсонализацией. В таком режиме можно работать с правовой логикой, структурой документа, обезличенными сюжетами, общими формулировками, анализом рисков, но нежелательно загружать полные «живые» материалы дела без очистки от конфиденциальных данных.
Зеленая зона — это использование ИИ в режиме, при котором пользователь имеет четкие и проверенные условия обработки данных: данные не используются для обучения общих моделей без согласия пользователя, доступ к аккаунту защищен, есть возможность управлять историей и удалением информации, а для командной работы — внутренние правила доступа к документам. Это может быть корпоративное решение, специально настроенная профессиональная учетная запись, API-решение или другой инструмент, который обеспечивает достаточный уровень контроля над данными.
Именно в таком режиме ИИ становится не «рискованной игрушкой», а нормальным профессиональным инструментом.
Можно ли доверять ИИ?
На этот вопрос нет честного ответа в формате «да» или «нет».
Искусственному интеллекту не нужно «доверять» в человеческом смысле этого слова. Его нужно проверять, настраивать, ограничивать и использовать в соответствующем режиме.
Мы же не «доверяем» электронной почте просто потому, что она существует. Мы доверяем конкретному сервису, конкретному корпоративному домену, конкретным настройкам безопасности, конкретному паролю, многофакторной аутентификации, политике доступа и репутации провайдера.
То же самое и с ИИ. Вопрос не в том, можно ли доверять «искусственному интеллекту в целом». Вопрос в том, можно ли доверять конкретному ИИ-сервису в конкретном режиме использования для конкретной категории информации.
И здесь адвокат должен мыслить не как увлеченный пользователь новой технологии, а как профессионал, отвечающий за чужую информацию.
Человеческий контроль остается обязательным
Риск ИИ заключается не только в возможной утечке данных. Риск также в том, что пользователь может слишком легко поверить результату.
ИИ может ошибиться. Может придумать норму права. Может неправильно пересказать судебную практику. Может уверенно сформулировать вывод, который выглядит убедительно, но юридически является неправильным. Может не учесть деталь, которая для дела является решающей.
Поэтому профессиональное использование ИИ должно включать не только защиту конфиденциальности, но и обязательную проверку результата человеком. Для адвоката ИИ может быть аналитическим помощником, редактором, инструментом структурирования или источником идей. Но он не может быть самостоятельным носителем профессионального суждения.
Окончательное заключение, правовая позиция, стратегия защиты, содержание документа и ответственность перед клиентом всегда остаются за адвокатом.
Заключение
Искусственный интеллект не отменяет адвокатскую тайну и не снижает стандарты профессиональной осмотрительности. Напротив, он повышает требования к цифровой гигиене и ответственному обращению с информацией.
Отказываться от ИИ только потому, что это новая технология, — так же нелогично, как когда-то было бы отказываться от электронной почты, облачных хранилищ или электронного суда. Но и загружать в любую нейросеть любые клиентские документы без понимания последствий — это не прогресс, а неосторожность.
Правильный подход находится посередине.
Адвокат может и должен использовать современные инструменты, если они помогают работать быстрее, глубже и качественнее. Но делать это нужно профессионально: выбирать проверенные сервисы, читать условия обработки данных, пользоваться теми режимами работы, которые соответствуют чувствительности информации, минимизировать объем данных, деперсонализировать документы там, где это возможно, не передавать лишнего и всегда оставлять за собой окончательный контроль над результатом.
Будущее юридической профессии не за теми, кто боится технологий. Но и не за теми, кто бездумно загружает в них все подряд.
Будущее — за теми, кто умеет пользоваться технологиями без потери профессиональной ответственности.