Решения, принимаемые искусственным интеллектом, могут привести к негативным последствиям из-за отсутствия у него моральных ориентиров. Об этом заявил РИА Новости замдиректора Федерального института цифровой трансформации образования Андрей Гамула.
По словам специалиста, ИИ пока нельзя считать самостоятельным разумом, так как все его действия зависят от информации, которую в него закладывает человек.
«Алгоритмы опираются только на заложенные данные и не обладают собственной волей. Ответственность за принятые ими решения всё равно лежит на человеке», — пояснил Гамула.
Он подчеркнул, что при разработке и внедрении ИИ важно учитывать этические нормы, чтобы минимизировать возможный вред.
Ранее сообщалось, что США смогут поражать цели по всему миру в течение нескольких минут благодаря технологиям искусственного интеллекта. Об этом заявил директор Национального агентства геопространственной разведки США вице-адмирал Фрэнк Уитворт на симпозиуме GEOINT. Подробнее об этом читайте в материале Общественной службы новостей.