Заставляем голосовых ассистентов Марусю и Салют материться без принуждения и спецсредств
Всем привет! Не такую первую публикацию я планировал сделать на Хабр: есть пара более серьёзных и интересных тем, которыми я планирую поделиться, но перфекционизм пока не даёт их добить.А тут получилась спонтанная и короткая история из разряда «поигрался - проиграл задумался», которая неожиданно упёрлась в этику и безопасность.
Разрабатываем голосового ассистента на Rockchip. Часть 2
Продолжаю разрабатывать DIY голосового ассистента на SOC-платформе Rockchip.В первой части мы соединили в единый конвейер вызов распознавания речи, локального чат-бота и синтез ответа.Если еще не читали, то вам
Как UX-исследователь находит свое место в технических командах
Привет! Я - Инга, старший UX-исследователь в Атоме. До этого два года разбиралась в роли CJE, как научить ИИ понимать людей, а последние полтора года проектирую голосового ассистента для электромобиля в команде Voice&Sound.
Пишем персонального AI-ассистента на Python
Современные голосовые помощники это мощные приложения, сочетающие обработку речи, машинное обучение и интеграцию с внешними API. В этой статье мы разберём, как создать базовый проект персонального ассистента на Python, используя библиотеки whisper, webrtcvad, gTTS и другие. Наш ассистент будет:Слушать микрофонОпределять начало и конец речи с помощью VAD (Voice Activity Detection)Преобразовывать речь в текст через модель WhisperОтправлять запросы на локальный LLM для генерации ответаЧитать ответ вслух с помощью gTTSНачинать/останавливать запись по клавише пробел

