LoginSignup
12
8

More than 5 years have passed since last update.

Alexa Skill Kitの紹介&GitHubの音声認識インタフェース能力実装

Last updated at Posted at 2017-12-22

・概要

image.png
※ 画嬢出所 : Wink Amazon Alexa

Amazonが2017年11月8日(水), クラウド基盤の音声サービスAmazon Alexaの日本語も使えるようになりました。
これで、英語が弱い人も使えるようになりましたね!素晴らしい!
そして3種類のデバイスAmazon Echo, Echo Plus, Echo Dotが国内で販売を開始しました。
今年の年末にAlexaのニュースが🔥 ホット🔥しますね。

装置を安価に配布してサービスで取り巻くアマゾンの勝利の方程式に画期的なサービスを出したいと思いました!
ちなみに、何ヶ月前まで国内ではまだ技適に対応しておらず、通常利用では電波法違反となる可能性があるので、禁止されたらしいでした。

どこで見たか忘れましたが、ある記事で以下の画嬢がありました。
何かピンと来ましてするキャプチャー取りました。
image.png
皆さんはどうですか?
何かピンときますか?
何か軍で揮官が兵士に命令をしてるような…ウハハハ

ということで、弊社のエンジニア合宿の機会で開発してみました。
それはAmazon Echo Dotを利用して業務の効率性を高めるASK(Alexa Skill Kit)です。
(モニターとキーボードをなるべくIDEから離れないことを希望してそれに役に立つ…)
image.png

※ 弊社の合宿
- 仕事関係は一切禁止、あくまで興味を高めるための面白いチャレンジを最優先でやる合宿

楽しみで作りたかったのは以下の通りでした。
・スキルにGithubの音声認識インタフェース
・Aipoのスケジュール(自分以外)を取得した他人の位置案内
image.png

・Alexaの基本原理を理解

詳しい内容は公式ホームページのチュートリアルや色んな記事がいっぱいあるので、
今回の実装内容を理解するため、ざっくり基本原理を説明させていただきたいと思っております。

まず、「Alexa」とはクラウドベースの音声対話エージェントのことを指し、
「Echo」は、Alexaを利用するためのホームスピーカーでございます。

また、Alexaはサードパーティー会社が使用できるようにSDKが公開されています。
一つが音声認識や自然言語解釈等を行うAlexa Voice Service(AVS)、
他の一つが様々な機能をSkillという形でパッケージングしてAlexa ServiceとつなげるAlexa Skill Kit(ASK)です。
なので、自分はAlexaに新たな機能を与えるASKを利用しました。

どういう流れで動くんでしょうかざっくり説明させて頂きます。
image.png※ 画嬢出所 : Introduction to building alexa skills and putting your amazon echo to work

1.使用者が命令すると、
2.Alexaが利用者の要請を分析して構造化した後、サービスに転送して、
3.サービスは要請を処理してテキストまたはグラフィカルな応答をします。

4.Alexaが返してもらったテキストを音声に変換したあと装置でストリームして、
5.装置はその回答をプレイします。

つまり、どのような音声に反応するか、
どのような単語をパラメータにしてどの機能を実行するのか、
返ってきた答えをどのようにAlexaに戻すのか、
これらを定義したパッケージ、API群をAlexa Skill Kitと呼び、
そのうち実際に実行される機能の部分をSkillと言います。
ASKを使ってSkillを作る、という理解がわかりやすいと思います。

対話構文

次は人がAlexaと対話するための構文です。

Wake Word Launch Skill Name Utterance
Echo ask she How is the weather today?
Alexa launch she Play the music.
Amazon load she Please tell me the bug issue.

それぞれの文句を説明します。

Wake Word(Alexaを起こす)

この文句をリクエストするとデバイスは青色がくるりと回ってレスポンスし、
これで対話の始まりになります。
このキーワードはAlexa Device Managerページからamazonやechoなど、他の名に切り替えます。

Launch(Skillを選ぶ)

この次に来る文句がSkill名になります。
複数のSkillが入ってますので、どのSkillにリクエストを投げるかを選びます。
Launchの文句は 様々の種類がありますので、ドキュメントを参考してください。
また、他の接続詞を利用して順番が後ろになる場合もあります。
例えば、「Echo, please tell me the bug issue from Anime Facts」
呼んだ場合も、from からその後Skill名だと判断します。

Skill Name

Alexa Device Managerから有効にしたスキル名でございます。
例えば自分が利用している以下のスキルでしたら、
「Echo open Top Music Chart」にします。
image.png

Utterance

意図を実行する単語及び入力構文です。
「ホテルを予約してくれよ」、「花を注文してくれよ」ようなことです。
自分は発音が悪いですが、中にDeep Learningが走ってるので、いい感じに聞き取れます。

ざっくり説明すると言いながら、少し長くなってしまいました。
一応説明がこのぐらいでお終いします。
その後は、実装の話をしながら必要なところに説明差し上げます。

・挨拶できる"SHE"スキル実装

まず、こういう単純なスキルを世の中に送り出して見て
生成の流れを理解しましょう。

▶実装ステップ ①

スキルを構築する最初のステップは以下の項目を設計することです。
それぞれの設計項目に挨拶できる"SHE"の通り付けてました。(\☺/)

Intent

 – 達成しようとする目標自体でございます。
 – 「ホテルの予約」、「花の注文」ようなことです。
(\☺/) 友達になって挨拶する

Utterance

 – 意図をを実行する単語及び入力構文です。
 – 「ホテルを予約してくれよ」、「花を注文してくれよ」ようなことです。
(\☺/) 友達になってくれ ! ・ 調子大丈夫?

Slots

 – 各Slotは利用者の意図を達成するため提供する小さいデータでございます。
 – 旅行アナウンス関連スキルなら都市、空港などの情報をリストアップした後、利用することができます。
(\☺/) FriendCode

Prompt

 – 利用者が意図を達成するための一部データを提供するようにリクエストする質問でございます。
(\☺/) Lambda Linux 6.10

これで単純な挨拶が出来るスキル【she】に対して
達成目標(Intent)を定義し、それに対する意図(Utterance)を追加してそれに対するアクションを定義しました。

▶実装ステップ ②

次はAWS Lambda関数を新規登録します。
image.png
以下はそのソースコードでございます。

aisatu.js
'use strict';

// レスポンスサポートする

function buildSpeechletResponse(title, output, repromptText, shouldEndSession) {
    return {
        outputSpeech: {
            type: 'PlainText',
            text: output,
        },
        card: {
            type: 'Simple',
            title: `SessionSpeechlet - ${title}`,
            content: `SessionSpeechlet - ${output}`,
        },
        reprompt: {
            outputSpeech: {
                type: 'PlainText',
                text: repromptText,
            },
        },
        shouldEndSession,
    };
}

function buildResponse(sessionAttributes, speechletResponse) {
    return {
        version: '1.0',
        sessionAttributes,
        response: speechletResponse,
    };
}


// スキルの動作を制御する

/**
 * スキルがLuncchされた時のレスポンス
 */
function getHelloResponse(callback) {
    const sessionAttributes = {};
    const cardTitle = 'Hello';
    const speechOutput = 'Hello, my name is she.';
    const repromptText = 'sorry, I can not understand.';

    // 次の会話にセッションをリセットするか
    const shouldEndSession = false;

    callback(sessionAttributes,
        buildSpeechletResponse(cardTitle, speechOutput, repromptText, shouldEndSession));
}

/**
 * 対話のセッションが切れた時のレスポンス
 */
function handleSessionEndRequest(callback) {
    const cardTitle = 'Session Ended';
    const speechOutput = 'Thank you., Have a nice day!';
    const shouldEndSession = true;

    callback({}, buildSpeechletResponse(cardTitle, speechOutput, null, shouldEndSession));
}

function createFriendCodeAttributes(code) {
    return {
        code,
    };
}

/**
 * コードセッションを設定し、利用者に回答する動作定義
 */
function setCodeInSession(intent, session, callback) {
    const cardTitle = intent.name;
    const friendCodeSlot = intent.slots.FriendCode;
    let repromptText = '';
    let sessionAttributes = {};
    const shouldEndSession = false;
    let speechOutput = '';

    if (friendCodeSlot) {
        const friendCode = friendCodeSlot.value;
        sessionAttributes = createFriendCodeAttributes(friendCode);
        speechOutput = `Hello ${friendCode}., I now know your friend code is ${friendCode}. You can ask me, Do you know me?`;
    } else {
        speechOutput = "I'm not sure what your friend code is. Please try again.";
    }

    callback(sessionAttributes,
         buildSpeechletResponse(cardTitle, speechOutput, repromptText, shouldEndSession));
}

/**
 * 友達コードを回答する
 */
function getCodeFromSession(intent, session, callback) {
    let friendCode;
    const repromptText = null;
    const sessionAttributes = {};
    let shouldEndSession = false;
    let speechOutput = '';

    if (session.attributes) {
        friendCode = session.attributes.friendCode;
    }

    if (friendCode) {
        speechOutput = `Hello, Your are ${friendCode}, Are you okay?`;
        shouldEndSession = false;
    } else {
        speechOutput = "sorry, I don't know you, Goodbye.";
    }

    callback(sessionAttributes,
         buildSpeechletResponse(intent.name, speechOutput, repromptText, shouldEndSession));
}


// 各イベント定義

/**
 * セッションが呼ばれた時のイベント
 */
function onSessionStarted(sessionStartedRequest, session) {
    console.log(`onSessionStarted requestId=${sessionStartedRequest.requestId}, sessionId=${session.sessionId}`);
}

/**
 * Launchした時のイベント
 */
function onLaunch(launchRequest, session, callback) {
    console.log(`onLaunch requestId=${launchRequest.requestId}, sessionId=${session.sessionId}`);

    // Dispatch to your skill's launch.
    getHelloResponse(callback);
}

/**
 * 利用者の命令の意図を指定した時のイベント
 */
function onIntent(intentRequest, session, callback) {
    console.log(`onIntent requestId=${intentRequest.requestId}, sessionId=${session.sessionId}`);

    const intent = intentRequest.intent;
    const intentName = intentRequest.intent.name;

    // Dispatch to your skill's intent handlers
    if (intentName === 'HelloIAmIntent') {
        setCodeInSession(intent, session, callback);
    } else if (intentName === 'YouKnowMeIntent') {
        getCodeFromSession(intent, session, callback);
    } else if (intentName === 'AMAZON.HelpIntent') {
        getHelloResponse(callback);
    } else if (intentName === 'AMAZON.StopIntent' || intentName === 'AMAZON.CancelIntent') {
        handleSessionEndRequest(callback);
    } else {
        throw new Error('Invalid intent');
    }
}

/**
 * セッションが終わった時のイベント
 */
function onSessionEnded(sessionEndedRequest, session) {
    console.log(`onSessionEnded requestId=${sessionEndedRequest.requestId}, sessionId=${session.sessionId}`);
    // Add cleanup logic here
}


// メインハンドラー

exports.handler = (event, context, callback) => {
    try {
        console.log(`event.session.application.applicationId=${event.session.application.applicationId}`);

        /**
         * Uncomment this if statement and populate with your skill's application ID to
         * prevent someone else from configuring a skill that sends requests to this function.
         */
        /*
        if (event.session.application.applicationId !== 'amzn1.echo-sdk-ams.app.[unique-value-here]') {
             callback('Invalid Application ID');
        }
        */

        if (event.session.new) {
            onSessionStarted({ requestId: event.request.requestId }, event.session);
        }

        if (event.request.type === 'LaunchRequest') {
            // 特に命令を指定せず、スキルが呼ばれた時
            onLaunch(event.request,
                event.session,
                (sessionAttributes, speechletResponse) => {
                    callback(null, buildResponse(sessionAttributes, speechletResponse));
                });
        } else if (event.request.type === 'IntentRequest') {
            // UtteranceとマッピングされたIntentが呼ばれた時
            onIntent(event.request,
                event.session,
                (sessionAttributes, speechletResponse) => {
                    callback(null, buildResponse(sessionAttributes, speechletResponse));
                });
        } else if (event.request.type === 'SessionEndedRequest') {
            onSessionEnded(event.request, event.session);
            callback();
        }
    } catch (err) {
        callback(err);
    }
};

実装内容は意外と単純です。
Alexaからのリクエストタイプは以下の通りです。

LaunchRequest IntentRequest SessionEndedRequest
特に命令を指定せず、スキルが呼ばれた時 UtteranceとマッピングされたIntentが呼ばれた時 ユーザーが対話を終了したり、一定時間対話がされなくてセッション有効時間が切れた時

スキル構築の重要ポイントはIntentRequestです。
後スキル登録の時定義するIntent(達成目標)とそれに対する処理をマッピングします。
より細かい説明はドキュメントをご覧ください。

▶実装ステップ ③

次は、達成する目標、Intentを定義します。
データ形式はjson形式です。

intent.json
{
  "intents": [
    {
      "intent": "HelloIAmIntent",
      "slots": [
        {
          "name": "FriendCode",
          "type": "LIST_OF_SIGNS"
        },
        {
          "name": "Date",
          "type": "AMAZON.DATE"
        }
      ]
    },
    {
      "intent": "YouKnowMeIntent"
    }
  ]
}

次は、Slotたちを定義します。
カスタムスロットタイプLIST_OF_SIGNSで定義します。
Sortのタイプを参照したい方はドキュメントをご覧ください。

FriendCodeSolts
lee
dohyung
sakura
hamano

意図を実行するための構文、Utteranceを定義します。
サンプル と書いて居るけど、この構文を元にリスポンスします。

Utterance
HelloIAmIntent Hello, I am {FriendCode}
HelloIAmIntent do you know {FriendCode}
YouKnowMeIntent do you know me?

▶実装ステップ ④

残りは、Amazon Deveroper ConsoleASKを登録することです。
image.png
👆に入って、Add a New Skillボタンを押すと👇の登録画面ができます。
Test まで行うと、公開はできませんが、Alexa Device Managerページから
自分のスキルを登録してデバイスからテストすることが できます。
image.png
image.png
image.png

また、Privacy & Complianceまですると公開可能ですが、
Amazonから検証が行った後可能です。(けっこう時間掛かりますー!)

各ステップのおもな設定項目としては以下の通りです。

- Skill Information

スキル名呼び出し名を設定
image.png

- Interation Model

インテントスキーマサンプル発話(Utterance)を設定します。
また、必要であればカスタムスロットタイプも設定します。
image.png

- Configuration

エンドポイントを指定します。
自分はLambda関数を指定しました。
image.png

- Test

設定内容のテストを行うことが出来ます。
image.png

Listenボタンを押すと、結果をヒアリングすることができます。

そして、Serviceの Request & Responseの内容も確認できますのですごく便利です。
なぜ便利かとすると、以下のようにエラー内容を詳しく確認することができない時、
PostmanLambda関数コンソルのテストでその Request(json)値をそのまま
設定してリクエストすると、細かいレスポンスボディを確認することができます。
image.png

あらら、、、すみませんー
上端のキャプチャーが最初挨拶スキルではなく、
本番のGithubの音声認識インタフェース実行内容の方を取っちゃいました。

・"SHE"スキルにGitHubの音声認識インタフェース能力を与える

Github API を利用してIssue及びPull requestを操作ができるようにしました。
操作できるのは以下の通りです。

▶ 利用の流れ

  1. 友達コードで認証した後、自分が持っているリポジトリリストを案内もらう
  2. 自分のリポジトリであるリポジトリにアクセスする
  3. アクセスしたリポジトリでissueとpull request操作が可能

🌺🌺🌺▶ 実装内容🌺🌺🌺

コードの内容を見せることは、まだ改修が色々必要なので、
以後にコードのGithubリポジトリを案内させて頂きます。

動作姿はYoutubeにアップしておきましたので、
気になる方はご覧ください。
英語発音頑張って練習しているんですが、
まだ下手なんで、Google音声からー.....

・ 「SHE」スキルにAipoアナウンス能力を与える

crxを作って、S3にPUTすることまで終わって、一応スキップしましたー!
継続的にすすめます!
image.png

大変だったこと

  • ASKのセッション時間と持続的なセッション管理
  • シングルページアプリケーションでAPI提供してない(有料はある)Aipoのデータ自動取得

【参考】デバイスの設定の方法

Alexa Device Managerページから
設定➜新しいデバイスをセットアップするとその後は、優しく手順を案内してくれます。
image.png

【参考】Alexa Device Managerページでデバイス別に対話した履歴が残る

(スキル生成ページのTestに対する対話は含めません)
image.png

12
8
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
8