Чат-боты и нейросети стали частью повседневной жизни, но многие пользователи не предполагают, что переписка с ИИ может иметь юридическую силу. Даже простой бытовой запрос способен повлечь правовые последствия, предупредил в беседе с RT декан факультета права НИУ ВШЭ, профессор Вадим Виноградов.
«Согласно разъяснениям Верховного суда Российской Федерации, цифровая переписка — в мессенджерах, почте или других онлайн-каналах — может рассматриваться как письменное доказательство, если она достоверна и используется как обычный способ взаимодействия. Это правило распространяется и на переписку с ИИ, если в ней прослеживаются признаки намерений, согласия или других юридически значимых формулировок, а источник сообщения можно подтвердить», — пояснил эксперт.
По его словам, суды уже принимают скриншоты и цифровые диалоги как доказательства, если соблюдены требования достоверности.
«Такие прецеденты встречаются в потребительских спорах, трудовых конфликтах и вопросах интеллектуальной собственности. Например, пользователь согласовал с ботом условия сделки, а затем отказался их выполнять. Или если работник получил через корпоративный бот подтверждение отпуска, использованное потом в суде. Иногда это помогает защитить свои интересы, но не исключены и ситуации, когда переписка становится аргументом против пользователя, особенно если её интерпретируют как волеизъявление», — добавил Виноградов.
По мнению юриста, проблема осложняется тем, что пользователи часто не осознают: их сообщения сохраняются, могут анализироваться и передаваться третьим лицам.
«В такой ситуации чат-бот выступает в качестве «цифрового агента», и юридически значимая переписка с чат-ботом от имени контрагента — это его риски и его ответственность. Чтобы переписка с ИИ могла быть признана допустимым доказательством, важно два условия: подтверждение источника — например, нотариальное удостоверение или передача через систему электронной подписи — и наличие в сообщениях признаков волеизъявления или юридически значимого факта», — пояснил специалист.
В современных условиях это требует внимательности и цифровой гигиены, подчеркнул Виноградов.
«При взаимодействии с нейросетями (генеративным ИИ) важно помнить, что вы передаёте информацию третьему лицу (оператору нейросети). Можете таким образом нарушать конфиденциальность персональных данных или коммерческой тайны, осуществлять трансграничную передачу данных. Если в чат с нейросетью загружаются чужие объекты интеллектуальной собственности, это может нарушать исключительные права», — предостерёг юрист.
Он посоветовал не передавать конфиденциальные данные через ИИ, особенно если платформа не регулируется российским законодательством о защите персональных данных.
«Также важно избегать согласования юридически значимых условий исключительно в переписке с ботом, без дополнительного документального подтверждения. Ключевые диалоги нужно фиксировать — с помощью скриншотов, экспорта или нотариального протоколирования. Это особенно актуально для бизнеса, юристов, HR-специалистов и всех, кто применяет ИИ в рабочих и договорных процессах», — заключил эксперт.
Ранее россиян предупредили о рисках утечки данных при создании цифровых аватаров.