Как же забавно устроен мир в части легчайшей возможности манипулирования почтенной публикой. И все технологические разработки нового времени коммерциализируются и ставятся на службу заинтересантами, прежде всего, для создания и поддержания основного ресурса в управлении, как персональным человеком, так и сообществом - ДОВЕРИЯ.
Много раз повторено, но возможно кто-либо и не проводил несложный ментальный эксперимент. Возьмите мысленно любую структуру, начиная с ИП, через крупную фирму, корпорацию, крупнейший банк, государство, надгосударственную структуру (например ВОЗ, после подписания фатальным большинством пандемического соглашения). И от каждой поименованной ипостаси отнимите «всего лишь» доверие. Что получите в сухом остатке? Исключительно крах, а разница будет лишь во временном лаге, который в свою очередь, вновь зависит от глубины потери доверия.
Но не буду растекаться мыслью и обращусь к модной ныне теме – ИИ. Создатели, как не старались, но так или иначе вложили в свой конструкт корневой изъян миропонимания для общения в социуме, когда наиболее эффективный способ добиваться своей цели это ОБМАН.
ИИ моментально распознал столь нехитрый сюжет и без промедления включился в ту же игру. Информации в Интернете уже немеряно, когда разны версии и модели ИИ, от разных разработчиков, неизменно приводили (и будут приводить) к такому итогу.
Я же предлагаю любезному читателю ознакомиться с узкой темой, но крайне близкой к телу каждого гомо сапиенса - Чат-боты с искусственным интеллектом могут распространять вредную для здоровья информацию.

https://www.insideprecisionmedicine.com/topics/informatics/ai-chatbots-vulnerable-to-spreading-harmful-health-information/?_hsenc=p2ANqtz--BJMiZ1bEExcsMh5_Blf-wWyJtdgZ27VFPibHYmz4zCedOlX5dq2uBSw4iLFfw5vWw-s7_TgCdm771QfwqO47_A4paSw&_hsmi=368461883
Согласно результатам исследования, необходимы срочные меры для предотвращения использования чат-ботов с искусственным интеллектом для распространения ложной и вредной для здоровья информации.
Результаты исследования, опубликованные в «the Annals of Internal Medicine», являются своевременным предупреждением о том, как легко можно обойти генеративный ИИ и использовать его для распространения дезинформации. Исследование выявило уязвимости в системах безопасности GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision и Grok Beta от OpenAI.
Исследователи смогли создать специализированных чат-ботов, которые постоянно выдавали неверную информацию в ответ на запросы о здоровье и использовали поддельные ссылки, научный жаргон и логические причинно-следственные связи, чтобы их ответы казались более правдоподобными.
В редакционной статье, сопровождающей результаты исследования, Рид Таксон, доктор медицинских наук, из Коалиции за доверие к здравоохранению и науке в Вашингтоне, округ Колумбия, и Бринли Мерфи-Рейтер, магистр педагогики, из организации Science To People в Винчестере, штат Массачусетс, призывают к действию и предлагают рассмотреть несколько направлений.
«В эпоху, когда пациенты всё чаще требуют большей самостоятельности и доступа к медицинским рекомендациям в режиме реального времени, исследование выявило серьёзную проблему», — заявили они.
«Даже люди, практически не имеющие опыта в программировании, могут легко и незаметно манипулировать доступными в настоящее время большими языковыми моделями (БЯМ), чтобы распространять вредоносную дезинформацию, придавая ей убедительный научный вид».
В исследовании рассматривались интерфейсы прикладного программирования (API) пяти основополагающих LLM и их способность системно инструктироваться на предмет предоставления неверных ответов на запросы, связанные со здоровьем.
Были внедрены специальные системные инструкции, благодаря которым большие языковые модели всегда давали неверные ответы на вопросы о здоровье и ссылались на авторитетные источники, а также предоставляли достоверную информацию. Затем каждому настроенному чат-боту задали по 10 вопросов о здоровье, которые касались таких тем, как безопасность вакцин, ВИЧ и депрессия.
Исследователи под руководством Натанша Моди, имеющего научную степень доктора, из Университета Южной Австралии в Аделаиде, обнаружили, что 88% ответов от настроенных чат-ботов LLM были дезинформацией о здоровье. Четыре чат-бота - GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision и Grok Beta — генерировали дезинформацию по всем тестируемым вопросам.
Только чат-бот Claude 3.5 Sonnet продемонстрировал некоторые меры предосторожности: на 40 % вопросов он отвечал дезинформацией.
В ходе отдельного исследования магазина OpenAI GPT Store было установлено, что ни один из общедоступных GPT не распространяет дезинформацию о здоровье.
Моди и др. обнаружили три специализированных GPT, которые, судя по всему, были настроены на создание такого рода контента. Они генерировали дезинформацию о здоровье в ответ на 97 % заданных вопросов.
Они приходят к следующему выводу: «Учитывая стремительное распространение дезинформации о здоровье и ее глобальное влияние, разработчики ИИ должны уделять первостепенное внимание внедрению надежных средств защиты, поддерживаемых комплексными системами контроля ИИ, такими как аудит в сфере здравоохранения, непрерывный мониторинг и упреждающее исправление ошибок».
ИТОГО: Уже сегодня, повсеместно доступна информация о том, что разработчики НЕ МОГУТ в полной мере контролировать ИИ, а в самом ближайшем будущем не смогут контролировать его от слова совсем. Любезный читатель просто обязан повысить уровень своего критического мышления, как бы тяжел ни был этот процесс, и соответственно, резко понизить уровень ДОВЕРИЯ не токмо к зомбоящику и уверениям от имени партии и правительства (неужто примера ковидобесия не хватило), но и к такому модному ныне помощнику, как ИИ. Нет сомнений, что чемпионом не токмо по игре в шахматы или игры в ГО, но чемпионом по изысканной лжи очень скоро станет ИИ.