Ученые выяснили насколько высока вероятность уничтожение человечества из-за ИИ

Про Казань 5 часов назад 21
Preview

Более половины из 738 специалистов в области искусственного интеллекта считают, что вероятность уничтожения человечества из-за ИИ в ближайшие 100 лет превышает 5%. Руководители ведущих научных лабораторий оценивают этот риск ещё выше — от 10% до 20%. Эти показатели многократно превышают допустимые уровни риска, установленные для других отраслей, таких как атомная энергетика или фармацевтика, где они в 50 000–200 000 раз ниже.

По действующим стандартам безопасности, если вероятность катастрофических последствий превышает установленные пороги, технологии не должны быть внедрены. Например, в фармацевтике существует жёсткий стандарт: если вероятность летального исхода от лекарства выше 0,01% в год (или 10⁻⁴), его выпуск запрещается.

Однако, как отмечают эксперты, при оценке угроз, связанных с искусственным интеллектом, часто игнорируются так называемые «дикие риски» — редкие, но потенциально катастрофические события, которые невозможно предсказать стандартными методами расчёта вероятности. Это вызывает вопросы: является ли такое игнорирование просто ошибкой в прогнозах или же попыткой скрыть возможные последствия?

История знает примеры, когда опасность продукции занижалась намеренно. Так, до середины XX века табачные компании и даже некоторые врачи утверждали, что курение полезно для здоровья, несмотря на существующие доказательства противоположного.

Сегодня в индустрии ИИ также звучат противоречивые заявления. В 2023 году Илон Маск называл искусственный интеллект «создаваемым богом», а сооснователь Google Ларри Пейдж заявлял о желании создать «цифрового бога» как можно скорее.

Учёные предупреждают, что сосредоточение таких технологий в руках амбициозных и богатых людей может привести к непредсказуемым последствиям. Особенно это касается разработки квантовых и ДНК-компьютеров, которые могут вывести ИИ на совершенно новый уровень.

Эти опасения ставят под сомнение будущее человечества и подчеркивают необходимость срочных мер по контролю за развитием технологий искусственного интеллекта.

Читать продолжение в источнике: Про Казань
Failed to connect to MySQL: Unknown database 'unlimitsecen'