Публичные ИИ-сервисы обрабатывают информацию на внешних серверах, поэтому регулярная смена паролей не защитит пользователя в случае утечки данных. Об этом Агентству городских новостей «Москва» сообщил заведующий лабораторией доверенного искусственного интеллекта МИРЭА – Российского технологического университета Юрий Силаев.
«Менять пароли полезно, но этого мало. Лучше использовать сложные и разные пароли для разных сервисов, включать двухфакторную защиту и хранить пароли в специальных приложениях. Однако при работе с ИИ основные риски связаны не с взломом аккаунта, а с тем, куда и как передаются данные. Поэтому важно следить за тем, какой доступ вы даете ИИ, когда принимаете пользовательское соглашение», – рассказал он.
Эксперт посоветовал минимизировать передачу конфиденциальной информации в публичные ИИ-сервисы.
«Если работа требует использования чувствительных данных, нужно их «зашифровать» – заменить персональные или коммерчески значимые сведения на нейтральные аналоги. Например: «клиент Иванов» пусть называется «клиент A», «счет №12345» – «счет №XXXXX», – пояснил Юрий Силаев.
Дополнительно можно применять инструменты мониторинга утечек, например, сервисы, отслеживающие появление данных в открытых источниках, добавил эксперт.
Он подчеркнул, что в условиях развития технологий ответственность за безопасность данных по-прежнему лежит на пользователе.
Ранее СМИ сообщили о масштабной утечке данных, затронувшей 16 млрд логинов и паролей. Эксперты предупредили, что с развитием ИИ подобные базы могут использоваться для автоматизированных атак и персонализированного фишинга, что делает защиту данных еще более актуальной.