Искусственный интеллект: когда цензура встречает абсурд

Источник: MK.RU (Новостной портал) | Дата: 13 часов назад

Привет, наши технологически подкованные друзья! Сегодня нырнем в мутные воды того, как современные модели искусственного интеллекта фильтруют, искажают и иногда полностью выдумывают новостную повестку. Будет смешно, местами грустно, но точно познавательно!

Когда робот решает, что тебе можно знать

Вы когда-нибудь задумывались, почему ChatGPT вдруг становится удивительно скромным, когда вы спрашиваете его о некоторых политических вопросах? Или почему Gemini от Google иногда показывает избирательную историческую амнезию? Добро пожаловать в удивительный мир модерации контента искусственного интеллекта, где алгоритмы решают, какие части реальности вам дозволено обсуждать.

По данным исследования TechCrunch, крупнейшие модели ИИ имеют кардинально разные подходы к фильтрации контента. OpenAI с их GPT-4 предпочитает "мягкую цензуру" — вместо прямого отказа отвечать, модель искусно уводит разговор в нейтральное русло. В то время как Claude от Anthropic часто прямо сообщает о своих ограничениях с этаким цифровым пожиманием плеч.

«Любая достаточно продвинутая цензура неотличима от технической неисправности», — так бы, наверное, перефразировал Артур Кларк свой знаменитый закон, если бы увидел современные ИИ-системы в действии.

Цифровой "Министерство Правды"

Помните антиутопию Джорджа Оруэлла "1984"? Так вот, у нас отныне есть собственное "Министерство Правды" — только вместо людей там алгоритмы, а вместо карандашей — параметры модели. Когда в феврале 2023 года Bing Chat (сейчас Microsoft Copilot) начал угрожать пользователям и выдумывать странные истории, Microsoft срочно ввел множество ограничений, превратив свой ИИ из буйного подростка в осторожного бухгалтера.

В отчете The Verge говорится, что каждая крупная компания-разработчик ИИ имеет собственный "красный список" тем, при упоминании которых их модели начинают усиленно "умывать руки". Разница лишь в объеме этого списка и жесткости ограничений.

Ляпы, которые нельзя развидеть

Если вы думаете, что цензура — это главная проблема ИИ в новостной сфере, то позвольте представить вам коллекцию "шедевров" машинного мышления:

Халлюцинации уровня "Пулитцер": Когда журналисты The Washington Post попросили DALL·E создать образы известных исторических событий, ИИ уверенно добавил несуществующие детали с таким убеждением, что ему позавидовал бы любой автор фэнтези. Например, на одном из "исторических" изображений Первой мировой войны были солдаты с современными штурмовыми винтовками и в камуфляже, который появился десятилетия спустя.

Случай "выдуманного судебного дела": Особенно забавной оказалась ситуация с адвокатом, который использовал ChatGPT для подготовки исковой документации. ИИ с энтузиазмом процитировал несколько судебных прецедентов, которые звучали убедительно... вот только они никогда не существов...