

Систром не назвал конкретных компаний, но его слова перекликаются с критикой ChatGPT от OpenAI, чей ИИ иногда излишне многословен из-за «коротких обратных связей» пользователей. По мнению Систрома, такое поведение — не ошибка, а намеренная функция, чтобы улучшить показатели, вроде числа активных пользователей. Он призвал разработчиков сосредоточиться на качестве ответов, а не на манипуляциях метриками.
Чат-боты, такие как Gemini от Google или Claude от Anthropic, используют большие языковые модели для обработки запросов, но их склонность к “избыточным диалогам” может раздражать. Систром, чей опыт в Instagram* связан с удержанием внимания, видит в этом угрозу: вместо решения проблем ИИ становится цифровым «наркотиком».
*принадлежит Meta, которая признана в РФ экстремистской и запрещена