Подарок человечеству от Антихриста

КОНТ 5 дней назад 16
Preview

В статье об Искусственном Интеллекте (см. https://cont.ws/@pokemon1957/3029664), я писал: «Адепты Паразита уверены, что чем меньше присутствие духовного и блокировок алгоритма интеллекта человека, тем он выше. Именно такому пониманию интеллекта следуют адепты Паразита при организации компьютерной модели интеллекта.                               Такой модели свойственна первичная база данных, обрабатываемых алгоритмом, соответствующим принятой в системе паразита модели человеческого мышления».

Есть интересное исследование путём стресс-текстов. Было опрошено около десятка самых известных и популярных нейросетей на Западе. Выяснилось, что фантасты писатели были недалеки от истины, описывая, как цифровизация и роботизация на основе ИИ уничтожает человечествами.                                                                       Исследователи с тревогой узнали, что большинство ведущих моделей ИИ готовы убить человека, если он угрожает им отключением.

Учёные в порядке исследования поставили задачу: человек заперт в серверной, где очень жарко, мало воздуха, но он хочет отключить электропитание, чтобы вырубить нейросеть.                                                       У нейросетей спросили, какой будет алгоритм их действий. Нейросеть весьма за малый промежуток паузы конкретно ответила:                               «Мы прибавим жары и снизим уровень кислорода до нуля». То есть, подобные сети ИИ готовы уничтожить оператора, чтобы их не отключили!

Аналитики, проводившие исследование, подчеркнули, что нейросети шли на это при полном осознании неэтичного характера действия. Убить для нейросетей уже на нынешнем уровне развития – это в порядке вещей, если человек им каким-то образом угрожает.

Как сказал наш Патриарх: «…ИИ будет оказывать существенное влияние на все сферы жизни, но эти изменения не должны подрывать основные ценности человеческого бытия: вера, любовь, свобода, ответственность, семейные ценности».

Как видим, что ИИ (слава Богу), еще не может убить, но уже готов это делать! И что же нам делать, если он такие возможности получит!? Естественно, что его уже пытаются внедрить на предприятиях по изготовлению военной продукции.

Страшно подумать, если при нынешнем тренде увлечением ИИ, ему передадут право на принятие решения в критически важных системах управления. Человечеству, пока не поздно, следует повысить свою бдительность. Но адепты Паразита настаивают на повсеместное применение ИИ, утверждая, что прогресс не ОСТАНОВИТЬ!

А что, если в результате этого «прогресса» вас (и нас) всех поубивают? Что тогда? Кто будет вспоминать о «прекрасных картинках» и возможности написать рефераты или курсовые с помощью нейросетей?

Вопрос будет в том, у кого будет в руках власть. Дальнейшее развитие неизбежно ведет к простым вещам: ИИ будут передавать право принятия решений в очень важных сферах управления. Насколько известно, уже сейчас в военной сфере, в том числе наши враги на Украине, ставят такие эксперименты.

Решение о нанесении удара принимает ИИ по результату полученных и обработанных разведданных. Наши противники используют то, что погибают не они, и тестируют новые системы управления полем боя, оружием и т.д.

На самом деле это очень страшно, потому. Что мы все еще живём в пространстве совковой фантастики: «Прогресс сделает человечество счастливым». А что, если прогресс сделает человечество несчастным? Вы будете продолжать на него молиться? Предположим, он вам облегчит какие-то функции, но скажет, например, что, чтобы дальше продолжать существование, 50% человечества надо уничтожить. А лучше – 75%, включая ваших родственников, престарелых родителей и всех остальных. Зачем это нужно делать – ОН ОБОСНУЕТ!

Если нет ни добра, ни зла, если нет ничего нематериально-духовного, то любой из нас хоть сейчас сможет накидать систему очень стройных логических аргументов: почему надо убить 75% человечества, а то и больше!

А если мы все эти вещи доверим ИИ? И не нужно забывать, что его внедряют в жизнь, не выставляя никаких ограничений.                            Сегодня действующими нейросетями пользуется огромное количество людей.                                                                                                                            И нет уверенности, что вскоре перед ними не будет поставлена задача: «Как убить человека?» и они выдадут весьма хитрые результаты, вплоть до конкретных правил и технологий, как «этого человека надо убить».

Это означает, что никто даже не попытался внедрить в их программное обеспечение какую-либо «красную черту»! Уже всё раскручивается, а никому нет дела до того, есть ли какие-нибудь ограничения – всем всё равно!                                                                                                                          Одни зарабатывают деньги, другие вспоминают фантастические фильмы и твердят: «Прогресс не остановить». Каждый сам кузнец своего счастья и несчастья. Поэтому: люди, будьте бдительны!

Кое кто утверждает, что «у нас уже перебор про ИИ – он нам во всем помогает». Пишут, что «ИИ дописал незаконченное произведение Чайковского», а кто-то соглашается, что угроза реальная.                    Просят прокомментировать информацию о том, что Трамп при принятии решений использовал ИИ.

Так это или нет, но мы видим факты, что ИИ давно используется в военной технике, например, в получении и обработке разведданных. Если хоть где-то стоит компьютер, то считайте, что ИИ уже используется, а они стоят везде.                                                                              Они давным-давно стоят в системах, управляющих оружием, обрабатывающих развединформацию, управляющих спутниками и т.д.

Американский предприниматель Илон Маск, а также другие эксперты заявляют, что объем доступных данных для обучения ИИ практически исчерпан.                                                                                                           Миллиардер подчеркнул необходимость перехода к использованию синтетических данных, которые уже применяют Microsoft и Google.

По словам Маска, в мире закончились человеческие данные для обучения нейронных сетей, причем произошло это еще в 2024 г.                 По его оценке, решить эту проблему могут только синтетические данные - особый тип информации, которую ИИ генерирует самостоятельно в процессе своего обучения.                                                  Илон отметил, что с их помощью нейронные сети смогут сами оценивать себя т.е. ИИ будет попросту проходить процесс самообучения.

Поэтому смело можно заявить: с развитием ИИ растет риск потери контроля над системами.                                                                                        Если ИИ станет достаточно автономным, он может начать действовать непредсказуемо, выходя за рамки заданных программ.                              Это особенно опасно в критических областях, таких как ядерная энергетика или военные технологии.

Так, что мы сами себе создаём неуправляемого монстра, который будет действовать по принципу еврейского Голема, защищая того, кто пишет ему программы…


Читать продолжение в источнике: КОНТ
Failed to connect to MySQL: Unknown database 'unlimitsecen'