Голосовое управление IH
-
Коллеги, добрый день!
Я вчера топорно (поскольку совсем не программист) "перепилил" плагин MegaD, назвав его VoiceTerminal….
В итоге моя версия shsTerminal2 распознает ключевое слово на основе голосовых моделей и команду, которую по http передает серверу iH. Плагин voiceterminal получает команду и запускает сценарий для переключения устройств.
Добрый день!
Классно :!:
Планирую все что есть выложить на гитхаб.
Очень хорошо. Для этого нужно:
1. Зарегистрироваться на github. Эта учетная запись для сервиса в целом
2. Прислать нам ваш логин и предполагаемое название плагина. Ваше название - voiceterminal?
Мы создаем на github.com/intrahouseio пустой репозитарий для вашего плагина,
Вам придет на почту приглашение: intrahouseio has invited you to collaborate on the intrahouseio/plugin-voiceterminal repository
Приняв приглашение, вы получите инструкции от github-а, как начать работать.
Предварительно желательно установить git локально. И хотя сейчас можно редактировать файлы в репозитарии на github-е напрямую через browser, обычно разработка идет в таком порядке:
1. Проект локально разрабатывается, тестируется. Изменения фиксируются локально (git commit).
2. На каком-то этапе делается git push в удаленный репозитарий (на github)
3. При совместной разработке, если кто-то поменял код, вы делаете git pull, и имеете у себя свежую версию для дальнейшей разработки.
В интернете полно информации по работе с git-ом, например
https://git-scm.com/book/ru/v2/Основы-Git-Создание-Git-репозитория
2. Чтобы плагин в ответ терминалу мог выдать сообщение типа: tts:"Свет в гостевой включен". Для этого нужно сделать передачу данных по соккету и закодировать текст UTF-8 в url…
Поскольку пока не понял почему в httpclient в function httpGet есть какие-то обращения к серверу по соккетам, но при этом нет нигде connect, write, да и не объявлена библиотека net.
Вам модуль httpclient не нужен. Ответные сообщения можно делать напрямую, закодировать через encodeURIComponent()
Вы ведь будете отправлять по http? Тогда библиотека net не нужна, connect тоже не нужен. Все уже сделано до нас
Нужен модуль http , который инкапсулирует работу с сокетами по протоколу http
const http = require("http");
Далее достаточно сделать http.get:
http.get('http://192.168.0.xx….......');
Если вам нужно только отправить, результат не важен - это все
3. Удалить не нужный код из плагина.
Вам не нужен модуль httpclient.js
Также в plugin.js можно удалить функцию setConfig и все, начиная с timers:[]
Манифест нужно почистить, но это можно сделать позднее
Ну а в самом исходнике плагина MegaD, наверное больше благодаря мне :oops: , наворочено "будь здоров"!
Иногда бывает полезно посмотреть на вещи с другой стороны
-
Вам модуль httpclient не нужен. Ответные сообщения можно делать напрямую, закодировать через encodeURIComponent()
Вы ведь будете отправлять по http? Тогда библиотека net не нужна, connect тоже не нужен. Все уже сделано до нас
Нужен модуль http , который инкапсулирует работу с сокетами по протоколу http
const http = require("http");
Далее достаточно сделать http.get:
http.get('http://192.168.0.xx….......');
Если вам нужно только отправить, результат не важен - это все
Все же мне скорее нужен net, поскольку там "This service requires use of the WebSocket protocol or raw TCP/IP".
Если при получении сообщения от VT отправлять принудительную команду типа http://192.168.9.192/tts:123 или ws://192.168.9.192/tts:123, то сервер терминала возвращает:
07.02 10:59:47.882 voiceterminal1: localhost <= 192.168.9.192 response: statusCode=426
А ведь это делается с помощью функции sendFullUr, но опять же через httpGet, которая есть в httpclient:
function sendFullUrl(fullUrl) { try { let furl = ut.doSubstitute(fullUrl, { pwd: plugin.params.pwd }); httpclient.httpGet( { url: url.parse(furl).path, host: url.parse(furl).hostname || plugin.params.host, port: url.parse(furl).port || plugin.params.port, stopOnError: false }, logger ); } catch (e) { logger.log("Error sending request " + fullUrl + " : " + e.message); } }
Но опять же мне нужно в любое время плагину дать команду типа:
this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +Lamp_Guest.name+ " включен"});
Поскольку терминал может озвучивать любую информацию! А если подключить плагин Google VA в терминале, то можно общаться и с голосовым помощником Google, имея синхронизацию с серверами со всеми вытекающими.
Вам не нужен модуль httpclient.js
Также в plugin.js можно удалить функцию setConfig и все, начиная с timers:[]
Манифест нужно почистить, но это можно сделать позднее
Да, то же самое я уже сделал. Интересует что это такое - почему тут вбиты какие-то параметры по умолчанию? Что такое doCmd - нигде не нашел:
module.exports = { params: { host: "192.168.0.14", port: 7999, lport: 8999 }, doCmd: "", setParams(obj) { if (typeof obj == "object") { Object.keys(obj).forEach(param => { if (this.params[param] != undefined) this.params[param] = obj[param]; }); this.doCmd = ut.doSubstitute(this.params.cmdreq); } },
И вообще, структура плагинов разная - сравнить MegaD и ping, например. Зачем у MegaD runplugin.js и adapter.js?
-
Все же мне скорее нужен net, поскольку там "This service requires use of the WebSocket protocol or raw TCP/IP".
Если нужен TCP сокет, то конечно, это совсем другое дело.
В MegaD весь обмен делается через http, поэтому там нет net
Для создания соединения по TCP нужно действительно использовать net, это стандартная библиотека nodejs, вот документация
https://nodejs.org/api/net.html
Если кратко, то:
const net = require("net"); // Подключиться, создать клиента const client = net.createConnection( { host, port }, () => { logger.log(" Connected"); }); client.on("error", e => { client.end(); logger.log("Connection error:" + e.code); // process.exit(1); }); // TCP сокет позволяет отправлять и получать сообщения после установки соединения // Для отправки: client.write(msg); // Входящие сообщения: client.on("data", data => { // data - Входящее сообщение });
Но опять же мне нужно в любое время плагину дать команду типа:
> this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +Lamp_Guest.name+ " включен"}); >
Поскольку терминал может озвучивать любую информацию! А если подключить плагин Google VA в терминале, то можно общаться и с голосовым помощником Google, имея синхронизацию с серверами со всеми вытекающими.
Круто. Вам в плагине нужно сделать обработку command как в MegaD и просто отправлять в сокет: client.write(msg)
Интересует что это такое - почему тут вбиты какие-то параметры по умолчанию? Что такое doCmd - нигде не нашел:
Параметры по умолчанию - это параметры по умолчанию На случай запуска без сервера или другого форс-мажора
doCmd - это команда по умолчанию, вида "/%pwd%/?cmd="
Используется при формировании команды в функции formCmd, если другая команда не определена
И вообще, структура плагинов разная - сравнить MegaD и ping, например.
Структура разная - и это нормально.
ping использует EventEmitter и написана с использованием синтаксиса классов. Можно писать в любом стиле
Если Вы про net - ping работает по протоколу icmp и использует дополнительный пакет net-ping . В принципе плагин -обертка над этой библиотекой. net там глубоко внутри, можете посмотреть в папке node_modules
Зачем у MegaD runplugin.js и adapter.js?
runplugin.js для запуска плагина без сервера. Для работы этот модуль не нужен, только для отладки
adapter.js - Для работы MegaD этот модуль нужен, вам - не нужен. Используется для подмены стандартных операций чтения данных
P.S. Если хотите использовать WebSocket, то стандартной библиотекой не обойтись, нужно ставить дополнительную. Их несколько разных
-
Добрый день,
Коллеги, подскажите пожалуйста как Вы видите работу с микрофоном
1. Активация по команде или интерактивное выполнение команды ?
2. Окончание команды по тишине заданного времени ?
3. Отсечка шума, команда не распознается пока не превысит установленный уровень ?
4. Как планируете подключать микрофон, на уровне железа ?
-
@dev:
Добрый день,
Коллеги, подскажите пожалуйста как Вы видите работу с микрофоном
1. Активация по команде или интерактивное выполнение команды ?
2. Окончание команды по тишине заданного времени ?
3. Отсечка шума, команда не распознается пока не превысит установленный уровень ?
4. Как планируете подключать микрофон, на уровне железа ?
Я случайно натолкнулся на проект mdmTerminal. В нем реально уже все что можно реализовано - https://github.com/Aculeasis/mdmTerminal2/wiki. Настройки расписаны тут - https://github.com/Aculeasis/mdmTerminal2/wiki/settings.ini. По вопросам:
1. Активация по ключевому слову (работает snowboy, но есть и другие варианты) на основе записанных фраз и скомпилированных голосовых моделей. Причем голосовые модели можно сделать для разных людей и в секции [persons] каждой модели прописать имя человека, тогда на сервер УД будет передаваться имя человека.
Причем в режиме chrome_mode = on между ключевым словом и командой не нужна даже пауза - все распознается на лету и триггер (ключевое слово) и команда.
2. Я так понял, что пока это определяется настройкой:
<quote>> # Лимит времени на запись после того как терминал распознал речь, в секундах.phrase_time_limit = 12
3. Там очень много настроек для этого (например, секция [noise_suppression] и [listener]). Snowboy справляется с задачей очень хорошо. Именно благодаря ему никакие левые команды не проходят.
4. Тут есть как минимум 2 варианта:
-
Поднимать voiceterminal на том же сервере что и сервер УД. Соответственно в него подключить USB-микрофон, который вынести в нужное место. Вариант скорее для небольшой квартиры.
-
Поднимать voiceterminal на отдельной железке (например, те же Orange Pi Zero/One/PC или см. проект Ass shield в Telegram), которая по Ethernet/Wi-Fi будет доступна в любом помещении дома. Кроме этого, есть резон сделать из нее единицу мультирума (см.LMS/squeezebox/squeezelite). Однако если будет много таких железок, то нужно подумать как ими всеми управлять (отсылать сообщения если активен датчик движения или что-то подобное).
По микрофонам я уже писал ранее. Однако парадокс софта mdmTerminal2 в том, что я его тестирую на Orange Pi PC со встроенным микрофоном,у которого на максимум задрано усиление (микрофон под штатным корпусом), и все это лежит на шумящем системнике!!! При этом уровень распознавания очень хороший!
-
-
Почти победил плагин voiceterminal в части отправки команд в сам терминал по соккетам - команды с сервера УД воспроизводятся.
Сейчас "расширения" плагина выглядит так, и в принципе этого достаточно при наличии одного голосового терминала!
Лог плагина при приеме сообщения от голосового терминала и передаче ему команды:08.02 14:53:38.367 voiceterminal1: 192.168.10.1 => localhost:8999 HTTP GET /command.php?qry=какая+погода&username=aleksey&terminal=VT1 08.02 14:53:38.368 voiceterminal1: 192.168.10.1 <= localhost:8999 08.02 14:53:38.369 voiceterminal1: { type: 'startscene', id: 'VoiceTerminal_ControlOfDevices', arg: '{"qry":"какая погода","username":"aleksey","terminal":"VT1"}' } 08.02 14:53:38.369 IH: startscene VoiceTerminal_ControlOfDevices 08.02 14:53:38.406 IH: plugin command { unit: 'voiceterminal1', command: 'tts:сейчас на улице -23 градуса и влажность 65 процентов', type: 'command' } 08.02 14:53:38.408 voiceterminal1: send command to terminal - 'tts:сейчас на улице -23 градуса и влажность 65 процентов' 08.02 14:53:38.557 voiceterminal1: Socket connection to the 192.168.9.192:7999 successfull! 08.02 14:53:38.558 voiceterminal1: localhost => 192.168.9.192:7999 send data - 'tts:сейчас на улице -23 градуса и влажность 65 процентов' 08.02 14:53:43.673 voiceterminal1: localhost <= 192.168.9.192:7999 data -
Ну и сценарий, который у меня работает с моим VT1:
/** * @name VoiceTerminal - управление устройствами * @desc При возникновении событий от голосового терминала выполнить действия * @version 4 */ const dt_s = Device("STEMP4_01"); const dh_s = Device("SHUMIDITY4_01"); const lamp_guest = Device("LAMP1_01"); script({ device: "", //Переменная для устройства terminal: "", //Переменная для имени терминала start(param) { const obj = JSON.parse(param); this.terminal = obj.terminal; this.log("### Receive message from - " +this.terminal+ '. Username - ' +obj.username+ ". Qry - " +obj.qry); //Голосовой терминал VT1 if(this.terminal == "VT1") { if(obj.qry == "ты тут") { if(obj.username == "aleksey") this.pluginCommand({ unit:"voiceterminal1", command:"tts:Привет, Алексей! Конечно я тут!"}); else this.pluginCommand({ unit:"voiceterminal1", command:"tts:Привет, я вас не узнала. Вы кто?"}); } else if(obj.qry == "какая погода") { let temp = Math.round(dt_s.value); let hum = Math.round(dh_s.value); let temp_unit = this.FormLineEnd(temp, "градус"); let hum_unit = this.FormLineEnd(hum, "процент"); this.pluginCommand({ unit:"voiceterminal1", command:"tts:сейчас на улице " +temp+ " " +temp_unit+ " и влажность " +hum+ " " +hum_unit }); } else if(obj.qry == "включи свет гостевой" || obj.qry == "включи свет в гостевой") { this.device = lamp_guest; if(this.device.isOff()) { this.device.on(); this.addListener(this.device, 'TTStoVTdevOn') } else this.TTStoVTdevisOn(); } else if(obj.qry == "выключи свет гостевой" || obj.qry == "выключи свет в гостевой") { this.device = lamp_guest; if(this.device.isOn()) { this.device.off(); this.addListener(this.device, 'TTStoVTdevOff') } else this.TTStoVTdevisOff(); } else this.pluginCommand({ unit:"voiceterminal1", command:"tts:Я не знаю такую команду!"}); } }, //Функция формирования окончаний единиц измерений - если unit = "градус", то будет "градуса" и "градусов" FormLineEnd(val, unit) { let part = 0; let string = ""; let val_abs = Math.abs(val); if(val_abs > 20) part = val_abs % 10; else part = val_abs; if(part == 1) string = unit; else if(part > 1 && part < 5) string = unit+ "а"; else string = unit+ "ов"; return string; }, TTStoVTdevOn() { this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +this.device.name+ " включен"}); //this.log("To " +this.terminal+ " - 'tts:" +this.device.name+ " включен'"); this.exit(); }, TTStoVTdevOff() { this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +this.device.name+ " выключен"}); //this.log("To " +this.terminal+ " - 'tts:" +this.device.name+ " выключен'"); this.exit(); }, TTStoVTdevisOn() { this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +this.device.name+ " уже был включен!"}); //this.log("To " +this.terminal+ " - 'tts:" +this.device.name+ " уже был включен!'"); this.exit(); }, TTStoVTdevisOff() { this.pluginCommand({ unit:"voiceterminal1", command:"tts:" +this.device.name+ " уже был выключен!"}); //this.log("To " +this.terminal+ " - 'tts:" +this.device.name+ " уже был выключен!'"); this.exit(); } });
-
Для тех кто решит на какой-нибудь железке (в том числе сам сервер умного дома) развернуть mdmTerminal2:
1. Устанавливаем пакеты с github:
git clone https://github.com/Aculeasis/mdmTerminal2
cd mdmTerminal2
./scripts/install.sh
2. Проверям работает ли запись и воспроизведение звука:
arecord -d 5 __.wav && aplay __.wav && rm __.wav
3. Копируем asound_pi.conf (для аналогового микрофона OPiZ) в /etc:
cp -p asound/asound_pi.conf /etc/asound.conf
4. Пробный запуск терминала (создается первоначальный конфиг):
env/bin/python -u src/main.py
5. Если все ОК, то можно поправить settings.ini (см.ниже):
nano src/settings.ini
6. Если есть папка plugins (ls -X src/plugins), то установим веб-конфигуратор:
env/bin/python -m pip install bottle
cd src/plugins
git clone https://github.com/Aculeasis/mdmt2-web-config
7. Добавить сервис в systemd - терминал будет запускаться автоматически:
cd ../../
./scripts/systemd_install.sh
8. Записываем фразы и компилируем голосовые модели:
env/bin/python -u scripts/tester.py
record 1 1 - прослушать play 1 1
record 1 2 - прослушать play 1 2
record 1 3 - прослушать play 1 3
compile 1
save - сохраняется конфигурация и сервис терминала перезагружается
9. Теперь в settings.ini в секции [models] будет присутствовать модель с активационной фразой:
model1.pmdl = Алиса
10.В settings.ini в секции [persons] можно задать соответствие модели с человеком:
model1.pmdl = aleksey
model5.pmdl = dima
По изменению настроек в settings.ini. Либо через ssh, либо с помощью веб-конфигуратора:
[settings]
providertts = yandex //Голос Алисы благозвучнее
phrase_time_limit = 10 //Уменьшить чтобы был более быстрый отклик
providerstt = yandex //google распознает лучше если есть шумы/эхо
chrome_mode = off //По умолчанию включен - распознавание кодового слова и команды происходит одновременно
Если отключить, то сначала распознает кодовое слово и потом записывает команду, отправляя ее providerstt
По мне - с отключенным режимом кодовое слово распознается лучше, а распознавание providerstt
не постоянное, как в случае с chrome_mode = on (меньше трафика и никто не слушает постоянно).
no_hello = on //Обязательно включить если chrome_mode = off
no_background_play = on //Чтобы терминал не слушал себя когда сервер iH отправляет ему "tts:текстдля озвучивания"
[majordomo]
ip = 192.168.11.99:11051 //ip сервера ih и слушающий порт плагина
terminal = VT1 //Название терминала, которое будет приходить на сервер iH
username = voiceterminal //Username, который будет приходить на сервер iH по умолчанию
password =
heartbeat_timeout = 0
object_method =
object_name =
linkedroom =
[listener]
vad_mode = energy
vad_chrome = snowboy
stream_recognition = on
energy_dynamic = on
silent_multiplier = 1.0
energy_lvl = 0
vad_lvl = 0
Из основных проблем терминала - на 4-м ядре запаздывает активация (выход из stand-by) усилителя звуковой карты, в итоге короткие звуки типа ding.wav/dong.wav не воспроизводятся. Поэтому в режиме chrome_mode = off не понятно сколько по длительности нужна пауза между активационной фразой и командой.
-
Выложил на гитхабе плагин - https://github.com/intrahouseio/intraHouse.plugin-voiceterminal
-
Добрый день. Вроде все настроил. Только в процессе выполнения сценария Алиса не возвращает голосовое сообщение в терминал. В отладчике фраза от Алисы идет, а голосом не воспроизводится. mdm Terminal2 сам не собирал, скачал готовый образ из https://majordomo.smartliving.ru/forum/viewtopic.php?f=5&t=5460&hilit=mdm+terminal2 (4 ядро рекомендуется). Подскажите пожалуйста что не так?
Сергей, ничего не могу сказать пока не покажите что в этот момент есть в логе терминала. Вообще желательно поставить терминал самому (у меня на OPiZ собирался не долго) и особенно веб-конфигуратор (см.п.6) - в нем посмотрите REMOTE_LOG и скорее что-то станет понятнее. По логу плагина iH - сервер открывает соединение и получает команду.
-
Сергей, ничего не могу сказать пока не покажите что в этот момент есть в логе терминала. Вообще желательно поставить терминал самому (у меня на OPiZ собирался не долго) и особенно веб-конфигуратор (см.п.6) - в нем посмотрите REMOTE_LOG и скорее что-то станет понятнее. По логу плагина iH - сервер открывает соединение и получает команду.
Собрать самому… наверное лучше... но я пошел по пути наименьшего сопротивления Покопаюсь еще и решу тогда. Лог выкладываю.
А "ларчик просто открывался", установил номер порта 7999 (увидел этот номер при записи фраз) и перезагрузил IH :lol:
Здорово, что получилось! Я так и не добрался до вашего лога на выходных…
iH не обязательно перезагружать - нужно остановить/запустить плагин, поскольку я еще не разобрался как автоматом перезапускать плагин при изменении сетевых настроек. А вообще порт связи с терминалом "по умолчанию" - 7999. Вы его почему-то поменяли на 6600 и я не обратил на это внимание.
-
Порт поменял в процессе экспериментов со звуком. А вообще прикольная система. Основная сложность это подбор параметров чувствительности микрофона. Но у меня практического применения эта система вероятно не найдёт, двое маленьких детей своим шумным поведением «свели Алису с ума»! :lol:
Да, в условиях шума все не айс… банально - включен телевизор и терминал уже ничего не понимает. Да что там телевизор - жена читает книжку сыну, а терминал уже не дозовешься. Создатель терминала говорит, что нужно более длинное кодовое слово, у него голосовые модели для "Булочка с корицей" и "Гугл с корицей".
Вариант подавления шума - это массив микрофонов а-ля "ReSpeaker Mic Array v2.0". И еще подумать как на него через сеть завести звук телевизора/смартфона и прочее аудио чтобы "выходной" сигнал вычитался из сигнала канала микрофонов. Тогда будет работать как та же Яндекс.Станция - если громкость не выше среднего уровня, то все команды понимает.
А вообще, на этапе сегодняшнего развития техники, я понял, что голосовые ассистенты это удел одиноких людей...
-
Голосовое управление нужно, чтобы не загромождать интерфейс кнопками запуска сценариев. Но для срабатывания нужно подойти к ближайшему интерфейсу.
И в ситуациях, когда заняты руки. Например на кухне, в момент готовки/резки/мойки, или в мастерской, или в санузлле.
Таких зон не очень много, и туда нужно выносить интерфейс системы с говорилкой и микрофоном. Чтобы на кухне можно было не хватаясь за полотенце голосовой командой ворота открыть.
И в этих зонах можно каждому интерфейсу сделать свои уникальные настройки шумоподавления под конкретную ситуацию.
-
Ну да… Шкворчат котлеты, микроволновка гудит, играет радио (что-бы не скучно было готовкой заниматься), подходишь к терминалу... А в ответ - "я не знаю такую команду!!!" или "вы ничего не сказали", берешь полотенце, вытираешь руки и... нажимаешь кнопку открытия ворот
Ну вот для этого и нужна продвинутая звуковая карта, которая отрежет лишние шумы и выпилит из распознаваемого звука звуки от радио/телевизора/музыки и т.д. Поэтому за такими вещами как предлагает ReSpeaker - будущее голосового распознавания.
-
Ну да… Шкворчат котлеты, микроволновка гудит, играет радио (что-бы не скучно было готовкой заниматься), подходишь к терминалу... А в ответ - "я не знаю такую команду!!!" или "вы ничего не сказали", берешь полотенце, вытираешь руки и... нажимаешь кнопку открытия ворот
из дешевых решений - гейт + направленный микрофон.
По уровню громкости отсекается шум.
Говорить нужно заведомо громче фонового шума, заняв позицию в зоне направленности.
Делали так озвучку зала в 90-х, когда конгресс систем на рынке в России не было доступных.
У президиума на столах микрофоны-лягушки с направленностью в сторону сидящего за столом, в противоположную сторону от зала.
и как бы зал не гудел, начало громкой и четкой речи включало микрофон и выводило его на колонки в зал.
Могли говорить 2, 3, все в президиуме одновременно. Включались все микрофоны, потоки микшировались, и подавались в колонки.
Я же написал про уникальные для каждого места настройки шумоподавления.
Следующий по дешевизне способ - параметрический эквалайзер. Просто давится полоса, в которой максимальный уровень шума.
Третий - это фоновая музыка ( или сигнал с второго микрофона, находящегося в стороне от говорящего) переворачивается зеркально по фазе и примешивается в микрофонный канал говорящего. Значительная часть сторонних звуков сама себя компенсирует.
А есть "интелектуальные". Распознают, например, шум бегущей воды, и его удаляют. Сохраняя все тембральные нюансы оставшегося сигнала…
Но вам же не песни в студии записывать, а сигнал электронному болвану послать...
P.S. Все давно придумано. Есть такое бесплатное ПО для музыкантов.
https://www.native-instruments.com/en/products/komplete/guitar/guitar-rig-5-player/amps-and-effects/
Даже им можно отфильтровать большую часть лишнего из аудио потока.
А уж платные версии... Или цифровые студии...
Ну хотя бы микшерский пульт
https://www.bandlab.com/products/cakewalk
- многоканальный цифровой интерфейс....
(4-х канальный для примера)
-
Для тех кто использует mdmTerminal2 вместе с iH выкладываю сценарий, который выводит в веб-интерфейс (точнее на закладку "Параметры" бокового меню плагина) текущие параметры mdmTerminal2. Мультисценарии не поддерживают класс устройств "Plugin", поэтому их приходится прописывать вручную в сценарии.
Вообще моей семье оказалось довольно удобно общаться с такой "настраиваемой" на сервере Алисой - спросить какую-нибудь информацию (сколько времени, какая погода, кто такой…, что такое..., какая температура...), дать ей команду (включи свет в..., выключи свет в..., включи вентиляцию, давай спать), поприветствовать ее, спросит как дела, сказать спасибо или просто узнать "ты человек"?
Скрипт сценария. Сам сценарий приложен в виде zip-файла к текущему сообщению.
/** * @name VoiceTerminal - статус терминала * @desc Обработка состояния терминала * @version 4 */ const dev1 = Device("_UNIT_voiceterminal1", [ {"name":"uptime", "note":"Времы работы", "type":"string", "val":""}, {"name":"status", "note":"Состояние", "type":"string", "val":""}, {"name":"updater", "note":"Обновления", "type":"string", "val":""}, {"name":"set_volume", "note":"Громкость терминала", "type":"number", "val":50}, {"name":"set_music_volume", "note":"Громкость плеера", "type":"number", "val":50}, {"name":"last_update", "note":"Update", "type":"string", "val":""} ]); const dev2 = Device("_UNIT_voiceterminal2", [ {"name":"uptime", "note":"Времы работы", "type":"string", "val":""}, {"name":"status", "note":"Состояние", "type":"string", "val":""}, {"name":"updater", "note":"Обновление", "type":"string", "val":""}, {"name":"set_volume", "note":"Громкость терминала", "type":"number", "val":50}, {"name":"set_music_volume", "note":"Громкость плеера", "type":"number", "val":50}, {"name":"last_update", "note":"Last update", "type":"string", "val":""} ]); startOnChange([dev1,dev2]); script({ start(param) { let device = ''; let flag_volume = 0; //Скрипт запускается плагином с параметрами if(param !== undefined) { const obj = JSON.parse(param); //Выбор устройства if(obj.terminal == "VT1") { device = dev1; } else if(obj.terminal == "VT2") { device = dev2; } //Конвертация времени из секунд в часы let days = Math.floor(obj.uptime/86400); let hours = Math.floor((obj.uptime % 86400)/3600); let minutes = Math.floor((obj.uptime % 3600)/60); let seconds = obj.uptime % 60; let time = days+ "d " +((hours < 10) ? "0" : "")+hours+ ":" +((minutes < 10) ? "0" : "")+minutes+ ":" +((seconds < 10) ? "0" : "")+seconds; //Обновление параметров устройства if(obj.uptime !== undefined) device.setParam("uptime", time); if(obj.status !== undefined) device.setParam("status", obj.status); if(obj.updater !== undefined) device.setParam("updater", obj.updater); if(obj.volume !== undefined) device.setParam("set_volume", obj.volume); if(obj.music_volume !== undefined) device.setParam("set_music_volume", obj.music_volume); device.setParam("last_update", this.GetDate()); } //Скрипт запускается по startOnChange else { //Проверка с какого устройства поступила команда if(this.isChanged(dev1, "set_volume")) { device = dev1; flag_volume = 1; } else if(this.isChanged(dev2, "set_volume")) { device = dev2; flag_volume = 1; } else if(this.isChanged(dev1, "set_music_volume")) { device = dev1; flag_volume = 2; } else if(this.isChanged(dev2, "set_music_volume")) { device = dev2; flag_volume = 2; } //Установка громкости на нужном терминале if(flag_volume == 1) this.SetVolumeTerminal(device); else if(flag_volume == 2) this.SetVolumeMusic(device); } }, GetDate() { return new Date().toLocaleString('ru-RU'); }, SetVolumeTerminal(device) { let unit = device.id.replace('_UNIT_', ''); let command = device.getParam('set_volume'); this.pluginCommand({unit: unit, command:"volume_q:" +command}); }, SetVolumeMusic(device) { let unit = device.id.replace('_UNIT_', ''); let command = device.getParam('set_music_volume'); this.pluginCommand({unit: unit, command:"music_volume_q:" +command}); } });
Чтобы скрипт работал, необходимо в расширениях плагина VoiceTerminal в поле "Входящее от голосового терминала" прописать:
/api/method/name.method?terminal=VT2
Где:
name - это любое имя object_name в разделе [Smarthome] настроек mdmTerminal2,
method - это любое имя object_method в разделе [Smarthome] настроек mdmTerminal2,
VT2 - это любое имя terminal в разделе [Smarthome] настроек mdmTerminal2
Кроме этого, в поле "Запустить сценарий" текущего расширения выбрать скрипт "VoiceTerminal_Status".
Кстати, вот незадача…в этом месте можно выбрать скрипт, в котором не объявлены устройства, а в скрипте они объявлены! Поэтому нужно временно из скрипта удалить строчки:
const dev1 = Device("_UNIT_voiceterminal1", [ {"name":"uptime", "note":"Времы работы", "type":"string", "val":""}, {"name":"status", "note":"Состояние", "type":"string", "val":""}, {"name":"updater", "note":"Обновления", "type":"string", "val":""}, {"name":"set_volume", "note":"Громкость терминала", "type":"number", "val":50}, {"name":"set_music_volume", "note":"Громкость плеера", "type":"number", "val":50}, {"name":"last_update", "note":"Update", "type":"string", "val":""} ]); const dev2 = Device("_UNIT_voiceterminal2", [ {"name":"uptime", "note":"Времы работы", "type":"string", "val":""}, {"name":"status", "note":"Состояние", "type":"string", "val":""}, {"name":"updater", "note":"Обновление", "type":"string", "val":""}, {"name":"set_volume", "note":"Громкость терминала", "type":"number", "val":50}, {"name":"set_music_volume", "note":"Громкость плеера", "type":"number", "val":50}, {"name":"last_update", "note":"Last update", "type":"string", "val":""} ]); startOnChange([dev1,dev2]);
Сохранить сценарий, выбрать его в расширениях плагина и сохранить созданное расширение. Снова вернуть строчки в сценарий и сохранить его.
Вот так у меня выглядит вкладка "Параметры" плагина VoiceTerminal. Громкость плеера - это регулировка громкости плеера-клиента LMS (zqueezelite) или плеера mpd, установленного на mdmTerminal2:
Пример настроек в расширении плагина VoiceTerminal:
-
Тут обратил внимание, что у меня не отображаются статусы голосовых терминалов - на вкладке "Параметры" - пусто. Не буду рассказывать в чем была проблема, но в итоге из одного сценария сделал два:
1. Статус терминала - запускается при поступлении сообщения от терминала на сервер:
02.09 12:57:17.337 voiceterminal2: { type: 'startscene', id: 'VoiceTerminal_Status', arg: '{"uptime":"313596","volume":"100","terminal":"VT2","music_volume":"100","username":"voiceterminal"}' } 02.09 12:57:17.342 IH: startscene VoiceTerminal_Status
2. Управление терминалом - запускается по изменению значений слайдеров на вкладке "Параметры"
В сценариях прописано 2 голосовых терминала.Теперь задача другая - если терминалы стоят в смежных помещениях/на разных этажах и оба слышат пользователя, то нужно выбрать на какой терминал сервер должен среагировать. Как вариант для критерия - уровень RMS. То есть если распознавание ключевого слова прошло успешно, то вместе с результатом распознавания передаем уровень RMS (сейчас есть min,max,avr). Таким образом, примерно в одно и то же время на сервер придет два сообщения от двух терминалов -от какого терминала Average RMS по уровню больше, от того и анализируем сервером текст команды.
В сценарии такую обработку мне не удалось пока реализовать, но скорее это дело плагина. Но "поковыряться" с плагином пока времени нет:(
Еще один вариант работы терминала, интегрированного в систему "Умный дом", находящегося в отдельной комнате - "прослушка" во время появления движения. Если срабатывает датчик движения, то на терминал посылаем команду listener:on, иначе после тайм-аута 10-30 минут посылаем listener:off. Однако - надо все пробовать…
-
@Alex_Jet большое спасибо за плагин,
а можно как-то переправить звук с mdmTerminal-а на другое физическое устройство?
Например, у меня потолочная акустика подключена к i386 серверу на котором установлен IH. А терминал я установил на Orange Pi Zero - который находится рядом, под потолком, смысла городить еще один динамик на Orange Pi Zero вроде бы и нет...
-
@div115, раз на сервере стоит iH, то вероятно можно использовать голосовой плагин самого iH? А может все-таки к акустике подключить малинку/апельсинку?
Вообще теоретически на это сервер можно установить mdmTerminal2 и в сценарии tts осуществлять через второй плагин. По крайней мере у меня несколько терминалов и я могу на любой вывести tts. А вот сервер УД у меня - только сервер, находящийся в темном черном углу. Даже LMS живет на другой железке.
-
Пользователь @Alex_Jet написал в Голосовое управление IH:
раз на сервере стоит iH, то вероятно можно использовать голосовой плагин самого iH?
да, наверное так можно, но реакция на кодовое слово вроде бы воспроизводится mdmTerminal-ом локально - на апельсине,
А может все-таки к акустике подключить малинку/апельсинку?
да, - на крайний вариант так и сделаю - раздраконю и прицеплю какие-нибудь usb колонки. Существующая потолочная аккустика - не вариант, т-к к ним идут только акустические провода от усилителя в электрощитовой (усилитель подключен к серверу IH) - а электрощитовая в подвале... + еще потолок уже сделан, - перепротянуть провода не получится, - но в 1,5 метрах от потолочной акустки есть отверстие под универсальный датчик - туда затянута из электрощитовой витая пара, - на нее планировал повесить апельсин с MDMтерминалом, микрофоном и датчиками, - питать планировал по пасив-пое.
Вообще теоретически на это сервер можно установить mdmTerminal2 и в сценарии tts осуществлять через второй плагин. По крайней мере у меня несколько терминалов и я могу на любой вывести tts.
этот вариант, как я понимаю, тоже не решает вопроса с озвучкой ответа на ключевое слово.
А вот сервер УД у меня - только сервер, находящийся в темном черном углу. Даже LMS живет на другой железке.
у меня на физ. сервере живет IH, LMS и SqueezePlayer
конечно хотелось бы перенаправить весь звук от апельсинки на сервер по сети, но пока не знаю как это сделать...
-
Пользователь @div115 написал в Голосовое управление IH:
у меня на физ. сервере живет IH, LMS и SqueezePlayer
конечно хотелось бы перенаправить весь звук от апельсинки на сервер по сети, но пока не знаю как это сделать...Я думаю, что самой правильной концепцией является:
- Отдельный железный сервер УД + LMS +Media, к которому подключен только кабель Eth
- По всей квартире/дому разбросаны железки с подключеным Eth (на крайний случай Wi-Fi) и акустикой. На борту у железок - mdmTerminal2 и squeezelite.
Поэтому ваш вариант перенести OPiZ в потолочное отверстие рядом с акустикой мне нравится намного больше. Сам хочу разработать плату для установки на нее OPiZ + микрофон с усилителем на TS472 + усилитель (хотя бы PAM8610) мощности + светодиодное кольцо на базе WS28xx, но пока руки не доходят...
И да...я до конца не понял, но похоже у Вас связка LMS ->squeezelite не работает? Если так, то это проще простого! На клиентах ставим squeezelite и их находит LMS (в его настройках на закладке "Информация" есть раздел "Информация о плеере"). Собственно на главной странице LMS сверху справа будет выпадающий список из плееров)
Passive-poe в реализации OPiZ очень плохой вариант... Лучше взять переходники для passive-poe и снимать хотя бы 12В, подавая сразу на усилитель (тот же PAM8610 - хорошая вещь!), а для OPiZ поставить step-down! - кушает она не мало и греется прилично!