«Яндекс» представил нейросетевую технологию, позволяющую распознавать голосовые команды даже в условиях сильного фонового шума, рассказали в компании. Решение уже используется в умных колонках и ТВ-станциях компании с голосовым помощником Алисой.
«До сих пор не существовало единого подхода к распознаванию голоса в шумной среде, который был бы одинаково надежен в лабораторных тестах и в реальных условиях», — заявил начальник направления голосовой активации «Яндекса» Дмитрий Солодуха.
Ключевым элементом технологии является специально разработанный attention-механизм, который одновременно анализирует 2 звуковых сигнала — 1 после прохождения через алгоритм эхоподавления, второй — через алгоритм шумоподавления. В каждый момент времени нейросеть выбирает из них тот, где речь распознана наиболее четко. Такой подход позволяет избежать искажений, характерных для традиционного шумоподавления, и обеспечивает устойчивую работу даже в шумной обстановке — например, при включенной музыке, работающем пылесосе или уличных звуках.
«Обычно в умных устройствах и ассистентах используют алгоритмы эхоподавления, которые помогают распознать голос на фоне музыки. Уменьшить другие фоновые звуки помогают алгоритмы шумоподавления, но они ухудшают и человеческую речь», — отметили в «Яндексе». Компания также анонсировала научную статья с описанием технологии. Ее авторы выразили надежду, что публикация, в частности, может ускорить прогресс в области голосовых интерфейсов.
Агент будет встроен в BI-сервис Yandex DataLens в виде чата и сможет перестраивать графики или менять формулы по пользовательским запросам. В компании ожидают, что инструмент снизит нагрузку на аналитиков и ускорит проверку гипотез и подготовку отчетов примерно на 30%. Первая версия продукта выйдет в сентябре, уже открыт лист ожидания.