Эксперт Content AI предупредил о рисках утечки данных при использовании публичных нейросетей
Более половины российских компаний опасаются утечки конфиденциальной информации из-за внедрения ИИ. Руководитель отдела технологий Content AI Сергей Юдин в разговоре с «Российской газетой» объяснил, почему нейросети могут стать источником необратимых утечек, и рассказал, как безопасно интегрировать ИИ в корпоративные процессы.
«Высокий риск утечки данных при использовании нейросетей обусловлен самой природой этой технологии», — отметил Сергей Юдин. По его словам, в отличие от классического проприетарного софта, который просто обрабатывает данные без их сохранения, большие языковые модели буквально «поглощают» переданную информацию и используют ее для понимания контекста. «А в случае публичных сервисов еще и для дообучения», — подчеркнул эксперт.
Он привел типичную ситуацию: сотрудники загружают в нейросеть финансовые отчеты, персональные данные клиентов, тексты договоров или стратегические планы.
«По сути, в такие модели отправляют самые ценные активы компании. Проблема в том, что, попав в открытую ИИ-систему, эта информация практически не подлежит удалению. Она может быть сохранена в логах, использована в обучающих выборках или случайно раскрыта третьим лицам. В результате утечка становится необратимой», — предупредил Юдин.
Эксперт напомнил, что публичные ИИ-сервисы зачастую прямо указывают в своих условиях, что сохраняют историю диалогов. Даже при агрегации и анонимизации данных, по его словам, остается риск их реконструкции или несанкционированного доступа.
«Первый и ключевой шаг — это формирование внутренней политики использования ИИ», — заявил Сергей Юдин.
Он рекомендовал обучать сотрудников тому, какие данные допустимо передавать в нейросеть, а какие категорически запрещено. В качестве практического инструмента защиты он предложил использовать плейсхолдеры: «Вместо настоящих имен, сумм, банковских реквизитов или названий компаний применяются вымышленные. Это позволяет сохранить логику и структуру задачи и получить релевантный ответ от ИИ без риска разглашения конфиденциальной информации».
На уровне архитектуры наиболее надежным решением, по мнению Юдина, остается развертывание ИИ-систем внутри корпоративного периметра.
«Многие современные платформы уже идут по пути локальных моделей. В этом случае данные никогда не покидают организацию, а эффективность ИИ-процессов сочетается с полным контролем над информационной безопасностью», — заключил он.