MonacaでHTML5の音声読み上げの機能を使おうとすると、Safariでは動くけど、Androidでは、下記のコードが未定義になりデバッグができないとか、iOSでもダメとか色々とネットで書かれています。
var meg = new SpeechSynthesisUtterance(text);
それで、サードパーティー製のTTSのプラグインを、使おうという記事もあります。
Monacaでは、有料プランでないとCardovaのプラグインを追加できないので、この方法は私はできないです。
そんなこともあり、必死になってVisualstudioとonsenUIとCordovaの組み合わせで、アプリを作る環境を作りたかったのです。
ようやく、意図した通りにアプリが動くようになり、実機デバッグで、センサーの挙動が予定通り読み取りできるか判断する段階に入りました。
エミュレーターも、プラグインのエミュレーターができるようで、センサーの状態が表示されたり、値を入力できる表示が出ました。
私は、このプラグインを使いたいと思い、プラグインの追加の記事など色々と関連記事を書きながらアプリ制作をしています。
エミュレーターの段階ですが、びっくりしたことがあります。
それは、Cordovaのプラグインを読み込むコードを書かなくても、エミュレーターが喋ったのです。
それに、センサーも、Cordovaのプラグインを読み込まなくても、イベントが起きているようなのです。
これで、実機でデバッグしてセンサーの読み込みが成功したら、HTML5の機能を使ってネイティブに近いアプリ開発ができることになります。
UIは、onsenUIやJQuery Mobileなどを使いたいです。
以前アプリを作った時は、JQuery Mobileを使っていました。
でも、onsenUIの方が、DOMが深くならないのでお勧めとネットで書かれていたので、onsenUIを使っていこうと思っています。
まだ、実機では未確認なのですが、エミュレーターの段階で喋ったので、びっくりしたので記事を書きました。
アプリが完成したら、記事を書きたいと思います。