Эксперт рассказал, как с развитием ИИ-технологий обеспечить безопасность данных без нарушения приватности пользователей.
С распространением искусственного интеллекта в повседневной жизни обострилась проблема правового регулирования его использования. Как отметил в разговоре RuNews24.ru эксперт Института фундаментальных проблем социо-гуманитарных наук НИЯУ МИФИ Яков Якубович, история взаимодействия пользователей с ИИ представляет большой интерес для правоохранительных органов как инструмент выявления противоправной деятельности.
По словам эксперта, анализ запросов к ИИ-ассистентам может способствовать пресечению распространения экстремистских материалов, инструкций по совершению преступлений и другой опасной информации. Однако подобные данные могут использоваться в качестве доказательств только по судебному решению и требует тщательного анализа контекста.
Якубович обращает внимание на случаи злоупотребления ИИ-технологиями, когда они применяются для генерации фейкового контента, инструкций по противоправным действиям или материалов, пропагандирующих насилие. При этом эксперт предостерегает от тотального контроля, который может привести к утечкам персональных данных и снижению доверия к цифровым сервисам.
В качестве компромиссного решения он предложил модель саморегулирования платформ, включающая анализ метаданных и разработку специализированных ИИ-детекторов противоправного контента, не требующих хранения полных логов переписки. Такой подход соответствует международным трендам цифрового регулирования, но требует четких законодательных рамок для предотвращения злоупотреблений.
По мнению Якубовича, разработка сбалансированных правовых норм и внедрение альтернативных методов контроля могут создать более безопасную цифровую среду без ущерба для личных свобод.