Больше четверти россиян верят в то, что нейронные сети в будущем начнут испытывать реальные эмоции. При этом пользователи из РФ уже сейчас на регулярной основе признаются им в любви и советуются по конфиденциальным вопросам, как свидетельствуют данные всероссийского опроса. У некоторых людей такое потенциальное будущее вызывает технофобию — психологи объясняют боязнь гаджетов шаблонным мышлением, пожилым возрастом или страхом стать жертвой мошенников. Эксперты отмечают, что за пользовательскими запросами могут следить. Но, даже несмотря на риски, количество защитников умных колонок и других технологий и сервисов постоянно растет.
Нейросети боятся, но используют
В «Лаборатории Касперского» провели масштабный опрос россиян касательно современных технологий — больших языковых моделей и нейросетей, — в которые входят, например, чат-боты. Как оказалось, 42% из опрошенных респондентов пользовались нейросетями хотя бы раз в жизни. Почти все опрошенные (91%) считают, что сегодня нейросети не способны испытывать чувства. Однако, когда речь заходит о будущем, респонденты уже не столь категоричны — более четверти (27%) допускают вероятность того, что через какое-то время нейросети смогут научиться переживать эмоции.
Реализация эмфатических (отличающихся особой эмоциональной выразительностью) технологий происходит уже сейчас. К примеру, создатели виртуального ассистента Алиса в «Яндексе» уделяют особое внимание эмоциональному опыту пользователей.
— Несколько лет назад Алиса научилась отвечать шепотом, а в августе мы внедрили новую технологию эмоционального синтеза. Благодаря ей ИИ учитывает контекст беседы и выбирает подходящую интонацию для ответа: например, дружелюбие, удивление, сочувствие или грусть. Всё это направлено на усиление эмпатии ассистента, которая уже давно дает свои плоды: по данным наших регулярных исследований пользовательского опыта, Алисе постоянно признаются в любви и делают это в среднем 100 тыс. раз в сутки, — сообщил руководитель продукта «Алиса GPT» Виталий Данилкин.
В ряде стран уже были случаи, когда люди вступали в любовные взаимоотношения с ИИ. Так, в 2022 году 38-летний японец Акихико Кондо женился на виртуальной певице Хацунэ Мику, а в 2024-м 52-летний японец Тихару Симода заключил брак с ИИ-ботом в приложении Loverse. В марте этого года компания Forever Voices создала нейросеть для блогера Кэрин Маджори, которая по подписке была доступна в качестве виртуальной ИИ-подружки. За первую неделю она принесла своим создателям $72 тыс. В РФ с колонками связаны свои курьезы — например, одна из популярных моделей в ответ на просьбу продиктовать рецепт торта заявила о том, что есть сладкое на ночь вредно.
У подобных взаимоотношений есть объяснение — человек может избегать реального общения и проводить много времени в социальных сетях. Он бесконечно смотрит новости, играет в игры, подглядывает за чужой жизнью и создает иллюзию общения в онлайн-пространстве, подменяя настоящее и качественное живое общение, отметила клинический психолог Ольга Хлебодарова. То же самое касается и любви к ИИ-предметам, которые подменяют живые эмоции убедительной иллюзией, добавила она.
— С этими технологиями связаны риски. Человек считает, что получает контент бесплатно, но по факту он расплачивается личными данными, которые обрабатывают компании. Как ни крути, производители смарт-устройств следят за своей аудиторией, анализируют ее интересы и стараются персонализировать рекламу на основании портрета пользователя. Чат-боты и прочие GPT-технологии небезопасны, ведь они сохраняют информацию о запросах, пусть даже в обезличенном виде, и любой потребитель не застрахован от того, что эти данные однажды всплывут наружу, — считает эксперт GG Tech Сергей Поморцев.
ИИ в работе и повседневности
Однако, как показал опрос «Лаборатории Касперского», по большей части люди приходят к нейросетям с конкретными потребностями. 46% от числа людей, которые пользовались чат-ботами, искали с их помощью информацию, 44% решали задачи по работе. А 17% из тех, кто когда-либо применял нейросети, общались с ними на личные темы, в том числе конфиденциального характера.
— ИИ не способен к моральным оценкам или творческим решениям, которые требуют человеческой интуиции. ИИ стоит применять для автоматизации повседневных задач (например, составление расписания, обработка данных), чтобы повысить свою продуктивность, но не нужно возлагать на нейросети ответственность за важные решения, — считает директор по LLM-продуктам в MTS AI Сергей Пономаренко.
По данным недавнего исследования РОМИР, в рамках которого была опрошена 1 тыс. человек, 77% респондентов пользуются нейросетями как минимум несколько раз в месяц, а 80% уверены, что эта технология упрощает решение рутинных задач. Это указывает на то, что россияне с растущим интересом смотрят на нейросети как на инструмент для решения необходимых вопросов, отметил вице-президент по стратегии и инновациям МТС, CEO Future Crew Евгений Черешнев.
— Бизнес будет делать нейросети всё более эмпатичными, способными к распознаванию эмоций. Умение умных колонок или чат-ботов в call-центрах банков и телеком-компаний распознавать эмоции собеседника и строить свой ответ исходя из эмоционального контекста — одно из ключевых преимуществ таких продуктов. Такой навык позволит сделать разговор с тем же чат ботом бесшовным, ИИ будет понимать с полуслова, учитывая в качестве контекста не только историю запроса, но и громкость голоса, интонацию, порядок слов, — сказал Евгений Черешнев.
При этом, как свидетельствуют данные опросов 2022 и 2023 годов, люди склонны испытывать недоверие к нейросетям. Они опасаются, что могут лишиться работы из-за развития этой технологии, а 30% респондентов склонны винить в этом чат-ботов. Наконец, 43% людей страдают технофобией и убеждены, что ИИ может восстать против людей, — то есть каждый третий полагает, что развитие этой технологии может привести к потенциальному восстанию машин.
От любви до ненависти
Основными причинами технобоязни психологи называют пожилой возраст, результат контакта с мошенниками, незнание того, как пользоваться ресурсами, а также потерю контроля и подкрепленное через опосредованный или непосредственный опыт недоверие. По словам Ольги Хлебодаровой, нейросети затрагивают все сферы общественной деятельности. Осваивая новые технологии, человек может приобретать удобные функции, которые сокращают временные затраты, и на фоне снижения доступности некоторых развлечений быстрее получать впечатления.
— Привязанность к технологическим предметам зачастую связана со сдвигом фокуса внимания от своих собственных проблем в тяжелых кризисных периодах и может служить защитным механизмом психики. При этом у моих клиентов наблюдаются страхи, связанные с ИИ-программами. Чаще это люди пожилого возраста и те, кто стали жертвами мошенников, — дополнила эксперт.
Использование нейросетей и умных устройств выступает системой с мощной обратной связью. Снижение социальных контактов вызывает уход пожилого человека в виртуальное пространство, стимулирует «коммуникации» с умными устройствами, что приводит к еще большей социальной изоляции. Одинокие пожилые люди могут персонализировать свои устройства, давать им имена, рассказывать о своих родных и близких. Тактильное взаимодействие может выражаться в дружеском похлопывании по колонке, рассказала руководитель НПЦ «Виртуальная клиника» Московского института психоанализа Ольга Валаева.
Технологии ИИ всё активнее интегрируются в самые разные сферы — от рекламы до медицины. И к этим системам, которые основаны на больших языковых моделях, должны предъявляться высокие требования с точки зрения их надежности и безопасности, отметил руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
— Пользователям «нейронок» следует внимательнее следить за личными данными, ведь в даркнете периодически появляются базы со слитой информацией простых людей. Доля таких сведений происходит из запросов чат-ботам, которые можно украсть и распространить, впрочем, как любой другой вид контента, — отметил IT-эксперт Даниил Аржаков.
По словам всех опрошенных экспертов, несмотря на общую пользу ИИ-ассистентов, с технологиями стоит быть осторожнее и проявлять аккуратность, чтобы не стать жертвами мошенников и не потерять личные данные, которые люди часто доверяют своим виртуальным помощникам.