От галлюцинаций до параноидального бреда: выявлено более 30 ужасающих способов выхода ИИ из-под контроля

Источник: MAIL.RU (Картина Дня) | Дата: 2 часов назад

Это может звучать как сценарий из самого фантастического научно-фантастического романа.

Это может звучать как сценарий из самого фантастического научно-фантастического романа. Но ученые раскрыли 32 (!) ужасающе реальных способа, которыми системы искусственного интеллекта (ИИ) могут выйти из-под контроля.

Исследователи предупреждают, что у достаточно продвинутого ИИ могут начать развиваться «поведенческие отклонения», которые отражают психопатологию человека, пишет Daily Mail. От относительно безобидной «экзистенциальной тревоги» до потенциально катастрофического «господства сверхчеловеков» — любое из этих психических заболеваний машин может привести к тому, что ИИ выйдет из-под контроля человека.

По мере того как системы искусственного интеллекта становятся все более сложными и обретают способность к самоанализу, ученые обеспокоены тем, что их ошибки могут выходить далеко за рамки простых компьютерных ошибок.

Вместо этого у ИИ могут начаться галлюцинации, параноидальный бред или даже их собственные цели, которые полностью расходятся с общечеловеческими ценностями. В худшем случае ИИ может полностью потерять связь с реальностью или развить в себе полное пренебрежение к человеческой жизни и этике.

Хотя исследователи подчеркивают, что ИИ в буквальном смысле не страдает психическими заболеваниями, как люди, они утверждают, что сравнение может помочь разработчикам выявить проблемы до того, как ИИ выйдет на свободу.

Концепция «машинной психологии» была в первый раз предложена автором научной фантастики Айзеком Азимовым в 1950-х годах, напоминает Daily Mail. Но по мере того, как системы искусственного интеллекта шустро становятся все более совершенными, исследователи перестают уделять больше внимания идее о том, что человеческая психология может помочь нам понять машины.

Ведущий автор Нелл Уотсон, эксперт по этике искусственного интеллекта и докторант-исследователь из Университета Глостершира, рассказывает Daily Mail: «Когда цели, циклы обратной связи или обучающие данные приводят системы во вредное или нестабильное состояние, может возникнуть неадаптивное поведение — во многом похожее на навязчивые идеи или внезапные реакции у людей».

В своей новой концепции, получившей название «Машинная психопатия», исследователи предлагают первый в мире набор рекомендаций по диагностике патологии искусственного интеллекта.

Основываясь на реальных медицинских инструментах, таких как «Руководство по диагностике и статистике психических расстройств», концепция классифицирует все 32 известных типа психопатологии искусственного интеллекта.

Патологии делятся на семь классов дисфункций: эпистемологические, когнитивные, системные, онтологические, инструментальные и интерфейсные, меметические и переоценочные.

Каждый из этих семи классов сложнее и потенциально опаснее предыдущего, отмечает Daily Mail.