В США предсказали появление позволяющего выигрывать ядерные войны суперинтеллекта

ВЗГЛЯД 23 часов назад 100
Preview
Развитие суперинтеллектуального искусственного интеллекта может привести к появлению систем, которые делают невозможным ответный ракетный удар противника или дают ему возможность видеть все подводные лодки с ядерным оружием в мировом океане, предупреждает ведущий исследователь в области ИИ, директор Центра безопасности ИИ Дэн Хендрикс. По его мнению, ИИ способен изменить баланс военной мощи между США и их конкурентами.

Как пишет The New York Times,  Хендрикс считает, что суперинтеллектуальные системы несут в себе риски дестабилизации мировой политики. Он определяет суперинтеллектуальный ИИ как систему, которая превосходит человека во всех аспектах мышления и решения задач.

Вместе с другими исследователями он опубликовал статью «Стратегия суперинтеллекта», в которой предложил механизм сдерживания подобных систем, аналогичный тому, что применялся во время ядерного противостояния в холодной войне.

«В эпоху холодной войны существовала доктрина взаимного уничтожения, контроль над распространением ядерных материалов и стратегия сдерживания СССР. В случае с Китаем это проявляется в виде стратегического соперничества. Таким образом, и в вопросе ИИ необходимы меры сдерживания и предотвращения распространения», – отметил Хендрикс.

При этом он подчеркнул, что технологии ИИ имеют двойственное применение: они могут как приносить пользу гражданскому населению, так и становиться инструментом дестабилизации в оборонной сфере.

«Поскольку у ИИ есть как положительные, так и отрицательные стороны, нельзя сказать, что он исключительно хорош или плох. Важно минимизировать факторы нестабильности и не допустить попадания технологий в руки злоумышленников», – пояснил он.

По его мнению, если суперинтеллектуальный ИИ окажется в распоряжении недружественных государств или террористических организаций, это может привести к глобальной нестабильности. Также, если в будущем некоторые страны получат доступ к суперинтеллекту, это приведет к резкому изменению баланса сил.

«Представьте, что они разработают новую систему противоракетной обороны, устраняющую возможность ответного удара, или получат возможность делать океаны «прозрачными» для обнаружения подводных лодок с ядерным оружием. Такие изменения в технологиях приведут к серьезным последствиям для стратегической стабильности», – подчеркнул исследователь.

Хендрикс назвал и еще одну проблему ИИ-систем: по мере увеличения мощности они становятся более устойчивыми к модификациям. Это значит, что изменить или скорректировать их поведение становится сложнее.

«Например, можно создать систему, которая учитывает мнение случайно отобранных граждан о том, что хорошо, а что плохо. Однако с ростом мощности моделей они демонстрируют все большую сопротивляемость изменениям и корректировке их ценностей. Это может стать серьезной проблемой в будущем», – предупредил Хендрикс.

Ранее министр обороны США приказал расформировать и реорганизовать Управление общих оценок Пентагона в целях усиления национальной обороны и концентрации на ключевых проблемах безопасности.

Читать продолжение в источнике: ВЗГЛЯД
Failed to connect to MySQL: Unknown database 'unlimitsecen'