Искусственный интеллект прочно вошёл в повседневную жизнь миллионов пользователей: ChatGPT ежедневно используют более 100 миллионов человек, генерируя свыше миллиарда запросов. Однако вместе с удобством приходит и новейший уровень рисков — конфиденциальность данных, которыми мы делимся с ботами, находится под серьёзным вопросом.
Создатель ChatGPT, компания OpenAI, прямо предупреждает: любая информация, введённая в чат, может использоваться как для обучения моделей, так и для модерации сотрудниками. Это значит, что переданные данные потенциально могут быть доступны другим людям — случайно или преднамеренно. А поскольку ИИ работает на облачных платформах, их защита полностью зависит от провайдера. По сути, всё, что вы вводите, становится публичным. Вот 5 видов информации, которые категорически не стоит разглашать ИИ-ботам:
1. Незаконные и неэтичные запросы
ИИ-защита может блокировать такие попытки, но сами факты обращения с сомнительными темами — например, советы по совершению преступлений или манипуляции людьми — могут привести к юридическим последствиям. В некоторых странах, как в Великобритании, ЕС или Китае, уже действуют строгие законы в сфере цифровой этики. Например, в ЕС дипфейки должны быть обязательно помечены, а в Великобритании уголовно наказуемо распространение откровенного контента, созданного ИИ, без согласия.
2. Логины и пароли
С развитием "агентного" ИИ, способного работать с внешними сервисами, у некоторых возникает соблазн передать ему свои учётные данные. Это крайне небезопасно: информация может "утечь", и в истории уже были случаи, когда данные, введённые одним пользователем, появлялись в ответах другим.
3. Финансовые данные
Банковские счета, номера карт — всё это категорически нельзя вводить в чат-бот. У таких платформ нет систем защиты уровня онлайн-банкинга: данные не шифруются и не исчезают после использования, что делает их уязвимыми для киберпреступников и мошенников.
4. Конфиденциальная информация
Служебные документы, протоколы, внутренние отчёты компаний — всё это потенциально может нарушить соглашения о конфиденциальности. Пример — случай с сотрудниками Samsung, которые загрузили в чат-бот внутренние данные компании, что привело к утечке. Особенно важно помнить об этом юристам, медикам и другим специалистам, связанным с профессиональной тайной.
5. Медицинские данные
Просить ИИ поставить диагноз — соблазнительно, но небезопасно. С учётом новейших функций вроде запоминания и анализа истории чатов, пользователь теряет контроль над тем, где может всплыть его личная информация. Для компаний в сфере здравоохранения утечка подобных данных может обернуться штрафами и потерей доверия.
Всё, что мы сообщаем ИИ-боту, стоит рассматривать как потенциально публичную информацию. Невзирая на развитие технологий и защитных мер, ответственность за безопасность данных по-прежнему лежит на нас. Прежде чем нажать "отправить", стоит спросить себя: "А готов ли я, чтобы это увидел весь интернет?"