В условиях стремительного развития генеративных моделей и отсутствия единых международных стандартов защиты вопрос безопасности становится критически важным, подчеркнул в беседе с RT старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников.
«Научные исследования подтверждают, что ИИ-модели могут быть подвержены атакам, связанным с извлечением обучающих данных. При определённых условиях злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах», — отметил эксперт.
Он напомнил, что в России действует закон №152-ФЗ «О персональных данных», который прямо запрещает передачу персональных данных третьим лицам без согласия субъекта.
«Это означает, что при использовании ИИ-сервисов, особенно зарубежных, пользователь должен понимать, где и как обрабатываются его запросы. Даже если сервис утверждает, что не сохраняет данные, отсутствие прозрачной политики хранения и обработки информации может привести к нарушению закона», — подчеркнул специалист.
По его словам, использование локальных ИИ-решений считается наименее рискованным вариантом, поскольку такие модели работают автономно, без передачи данных в облако.
«Однако они требуют значительных вычислительных ресурсов и технической подготовки. Если развернуть собственную систему невозможно, рекомендуется использовать корпоративные версии ИИ-сервисов, где можно управлять политикой хранения информации, включая запрет на обучение модели на пользовательских запросах. При отсутствии такой возможности разумным будет вручную фильтровать вводимые данные — удалять личные имена, контактные сведения, номера документов и другие чувствительные фрагменты», — посоветовал Рыбников.
Отмечается, что особое внимание следует уделить так называемой атаке через подсказки.
«Это способ, с помощью которого злоумышленник может внедрить скрытые команды в запрос или передаваемый контекст, чтобы получить доступ к данным или изменить поведение ИИ. Такие атаки нацелены не на пользователя, а на саму систему, и предотвратить их — задача разработчиков сервиса. Однако пользователь может косвенно защитить себя: использовать платформы с встроенной фильтрацией, не загружать конфиденциальные документы и избегать работы с подозрительными шаблонами», — пояснил Рыбников.
Он добавил, что, даже если ИИ-приложение работает без подключения к интернету, оно может локально сохранять историю запросов, временные файлы и журналы работы.
«Поэтому особенно важно очищать кеш и временные данные, если устройство используется несколькими людьми. Также рекомендуется включить шифрование файловой системы (например, с помощью встроенных средств Windows, macOS или Linux) и ограничить доступ к ИИ-программам с помощью настроек прав пользователей», — посоветовал эксперт.
Ранее россиянам рассказали, как действовать в случае угроз опубликовать переписку.