ИИ автоматизирует мониторинг и анализ больших данных, оперативно выявляя подозрительные активности. Машинное обучение помогает распознавать изменяющиеся схемы мошенничества, даже замаскированные под легальные операции.
В беседе с RuNews24.ru IT-эксперт кафедры киберспорта факультета игровой индустрии и киберспорта Университета «Синергия» Даниил Аржаков пояснил, что многие системы на базе машинного обучения эффективно выявляют известные угрозы и шаблоны, но остаются уязвимыми к новым нестандартным методам атак.
В частности, он упомянул риск отравления данных – ситуации, когда злоумышленники постепенно изменяют обучающие данные модели, что может привести к ее неспособности распознавать реальные угрозы.
Аржаков отметил, что потенциал применения ИИ в сфере кибербезопасности в перспективе весьма значителен. По его мнению, по мере технологического прогресса и накопления опыта как специалистами по защите, так и регуляторами (включая развитие нормативной базы), искусственный интеллект станет ключевым элементом систем автоматизированной защиты.