Beliebte Suchanfragen
|
//

BDD für Alexa Skills – Teil 4 Akzeptanztests mit cucumber.js

4.3.2019 | 9 Minuten Lesezeit

Dies ist der vierte Teil einer Serie von Blogeinträgen über die Entwicklung eines Alexa Skills. Diesmal beschäftigen wir uns mit der Entwicklung von automatisierten Akzeptanztests für unseren Skill unter Einsatz von cucumber.js, also Behaviour Driven Development (BDD) für einen Alexa Skill.

Was bisher geschah

In den ersten drei Beiträgen dieser Artikelserie haben wir einen Alexa Skill aufgesetzt. Schritt für Schritt wurde die Lambda-Entwicklung für diesen Skill um Linting, ein Typsystem und schließlich Unit-Tests mit Jest erweitert.

Aufbau eines Tests in cucumber.js

cucumber.js ist die JavaScript-Portierung von cucumber, einem Framework zur Ausführung von automatisierten (Akzeptanz-) Tests (wer sich für die Historie von cucumber interessiert kann hier mehr in einem Artikel von 2013 auf dem codecentric Blog lernen).

Cucumber erlaubt es uns, Testszenarien als Text zu definieren, die einer gewissen Struktur gehorchen müssen.
Ein Testszenario wird eingeleitet mit dem Schlüsselwort Szenario: gefolgt von einem Namen für den Test.

Der Testablauf wird dann mit Schlüsselwörten versehen:

  • Angenommen: Definiert einen Ausgangszustand für den Test, z.B. dass der Skill bereits gestartet ist. Wenn unser Skill von der Tageszeit abhängig ist, könnten wir hier z. B. schreiben „Angenommen es ist sieben Uhr morgens“.
  • Wenn: Gibt einen Schritt an, der in dem Test ausgeführt werden soll.
  • Dann: Beschreibt unsere Erwartung, was durch den Test passieren soll.

Ziel ist es, den Test für unseren Alexa Skill so zu schreiben, als würden wir einen Dialog mit Alexa führen. Dies könnte in unserem Würfelspiel vielleicht so aussehen:

 
Szenario: Würfel mit n Würfeln. Alexa erfragt die Anzahl, wenn der Anwender diese initial nicht nennt
Angenommen der Zufallsgenerator generiert eine Sequenz 2,5,3,2,3
Und der Anwender hat den Skill gestartet
Wenn der Anwender sagt: Bitte würfeln
Dann fragt Alexa: Mit wie vielen Würfeln möchtest du würfeln?
Wenn der Anwender die Frage mit 5 beantwortet
Dann sagt Alexa: Okay. Du hast zweimal eine 2, zweimal eine 3 und eine 5 gewürfelt

Jeden der Angenommen-, Wenn- und Dann-Schritte müssen wir erst implementieren, damit cucumber weiß was dafür zu tun ist. Wir könnten nun einen speziellen Schritt Wenn der Anwender sagt: Bitte würfeln implementieren und dann einen neuen „Würfel Intent“ aufrufen. Aber schöner wäre es, wenn wir nur wenige generischen Schritte implementieren würden, wie z.B.:

Wenn der Anwender sagt: utterance
Dann sagt Alexa: Antwort

Der (Mock) Voice Service

Um generische Steps für den Aufruf unseres Skill aus einem cucumber-Test zu entwerfen, schauen wir noch einmal auf das Diagramm aus dem ersten Blogpost dieser Serie. Dieses Diagramm hilft uns, zu verstehen wie unser Skill von Alexa ausgeführt wird:

Der Anwender sagt einen Befehl zu seinem Echo-Gerät. Dieser Sprachbefehl wird in die Cloud übertragen und vom Alexa Voice Service verarbeitet.

Der Voice Service nutzt unser Voice Interaction Model um zu prüfen, ob die Spracheingabe des Nutzers zu einem unserer da definierten Intents passt. Wenn ja, baut der Voice-Service einen intentRequest mit dem aufzurufenden Intent und ggf. vorhandenen Slot-Werten zusammen und ruft damit unseren Skill auf. Der Skill prüft welcher Handler für den Intent in der canHandle Methode true zurückgibt und ruft dann den passenden Handler auf.

Für unseren Akzeptanztest müssen wir also die Rolle des Voice Service selbst übernehmen und diesen durch einen speziellen Mock Voice Service ersetzen:

Um dies tun zu können brauchen wir lokal Zugriff auf unser definiertes Voice Interaction Model. Dieses finden wir in der Alexa Developer Console . Von dort navigieren wir zu unserem Skill und können dann über die Navigation links den JSON Editor aufrufen:

Wir kopieren uns den Inhalt und legen mit diesem eine neue Datei namens „interactionModel.json“ im Verzeichnis /VoiceUI an (Anmerkung: neben der aws-cli die wir zur Aktualisierung der Lambda nutzen, existiert ein eigenes Commandline Interface für Alexa Skills , das hier vielleicht hilfreich wäre. Dieses habe ich aber noch nicht ausprobiert).

Momentan haben wir in unserem Voice Interaction Model nur einen einzigen neuen Intent angelegt. Dieser Intent (starteSpiel) kann nur durch einen einzigen Satz aufgerufen werden, mit einer Variablen (einem Slot) für die Anzahl an Spielern.

Für die bessere Veranschaulichung erweitern wir unseren Intent nun um einen weiteren Slot. Wir ersetzen das Wort Mitspielern durch einen Slot {Spielern} mit möglichen Werten einem eigenen Slot-Typ {SpielernSlot} mit den möglichen Werten: Mitspielern und Spielern (um dem Anwender etwas mehr Freiheiten in der Formulierung zu gestatten).

Unser verändertes Voice Interaction Model sieht somit so aus:

1{
2    "interactionModel": {
3        "languageModel": {
4            "invocationName": "fünferpasch",
5            "intents": [
6                {
7                    "name": "AMAZON.FallbackIntent",
8                    "samples": []
9                },
10                {
11                    "name": "AMAZON.CancelIntent",
12                    "samples": []
13                },
14                {
15                    "name": "AMAZON.HelpIntent",
16                    "samples": []
17                },
18                {
19                    "name": "AMAZON.StopIntent",
20                    "samples": []
21                },
22                {
23                    "name": "AMAZON.NavigateHomeIntent",
24                    "samples": []
25                },
26                {
27                    "name": "starteSpiel",
28                    "slots": [
29                        {
30                            "name": "spieleranzahl",
31                            "type": "AMAZON.NUMBER"
32                        },
33                        {
34                            "name": "spielern",
35                            "type": "SpielernSlot"
36                        }
37                    ],
38                    "samples": [
39                        "Starte ein Spiel mit {spieleranzahl} {spielern}"
40                    ]
41                }
42            ],
43            "types": [
44                {
45                    "name": "SpielernSlot",
46                    "values": [
47                        {
48                            "name": {
49                                "value": "Mitspielern"
50                            }
51                        },
52                        {
53                            "name": {
54                                "value": "Spielern"
55                            }
56                        }
57                    ]
58                }
59            ]
60        }
61    }
62}

Es gibt also einige Standard-Intents, plus den starteSpiel Intent, mit den zwei Slots:

  • spieleranzahl vom Typ AMAZON.number
  • spielern vom Typ SpielernSlot

Der SlotTyp SpielernSlot ist ein benutzerdefinierter Slot-Typ, der durch die möglichen Werte Spielern und Mitspielern ersetzt werden kann. Wir nutzen den Slot-Typ hier also nur, um die Anzahl an verschiedenen Utterances zu reduzieren und gleichzeitig dem Anwender verschiedene Formulierungen zu erlauben. Der Hauptunterschied ist hier, dass der Slot spieleranzahl später von uns weiter verwendet wird, während es uns egal ist, ob der Anwender unseren Skill mit „Spielern“ oder „Mitspielern“ adressiert hat.

Ein generischer Wenn der Anwender sagt Step für cucumber.js

Mit unserem Mock Voice Service wollen wir einen generischen Step für die Verarbeitung einer Spracheingabe eines Nutzers anbieten. Wir müssen also zu der Spracheingabe den passenden Intent ermitteln und unsere Lambda-Funktion mit einem entsprechenden Intent-Request aufrufen.

Um diesen Intent zu ermitteln, liest unser Mock Voice Service das lokal gespeicherte Voice Interaction Model und speichert sich zu jedem möglichen Intent jede mögliche Utterance. Um diese Utterances im Test auf die Spracheingabe des Nutzers zu matchen, übersetzen wir jede Utterance in eine Regular Expression. In der erzeugten Regular Expression ersetzen wir die Slot-Werte durch die für den passenden Slot-Type gültigen Eingaben. Das klingt komplizierter als es wirklich ist. Machen wir es konkreter an unserem obigen Beispiel:

Die Utterance:
"Starte ein Spiel mit {spieleranzahl} {spielern}"

wird eingelesen. Anhand der geschweiften Klammer erkennen wir zwei Slots. Über die Slot-Typen ersetzen wir diese Slots nun durch eine Regular Expression zu:

"^Starte ein Spiel mit (.*) (Spielern|Mitspielern)$"

Mit dem „^“ und „$“ Zeichen legen wir fest, dass unsere Regular Expression nur matchen soll, wenn die Spracheingabe genau mit dem ersten Wort anfängt und dem letzten Wort aufhört, dadurch schließen wir für unseren Test Teilmatches aus.

Die Slot-Werte aus der Utterance haben wir in der Regular Expression durch Gruppen (gekennzeichnet durch die runden Klammern) ersetzt:

  • Vordefinierte Slot-Types (erkennbar daran, dass der Typ mit „AMAZON.“ anfängt, ersetzen wir momentan durch (.*) was auf beliebige Eingaben matched (Für AMAZON.number könnten wir später noch spezifischer werden).
  • Benutzerdefinierte Slot-Types ersetzen wir durch eine Oder-verkettete Liste aller für den Slot-Typ gültigen Eingaben. Im Beispiel sind das „Spielern“ und „Mitspielern“.

Im Test müssen wir dann nur noch die Spracheingabe aus dem Test gegen alle erzeugten Regular Expressions testen. Haben wir einen Match, kennen wir auch den aufzurufenden Intent und über die Gruppen in der Regular Expression ermitteln wir die Werte zu den ermittelten Slots.

Mit diesen Informationen können wir uns dann einen IntentRequest zusammenbauen. Hierfür nutzen wir einige Template-Requests, die wir im Projekt als JSON-Dateien ablegen und mit dem aufzurufenden Intent und den Slot-Informationen aktualisieren.

Die Implementierung unseres „Wenn der Anwender sagt“ cucumber Steps ist:

1When(/^der Anwender sagt[:]? (.*)$/, async function (utterance) {
2    const allUtterances = getAllUtterances();
3 
4    const matchingIntent: ?IntentInvocation = findMatchingIntent(allUtterances, utterance);
5 
6    expect(allUtterances).toHaveMatchingIntentFor(utterance);
7    if (!matchingIntent) return;
8 
9    const slots = matchingIntent && matchingIntent.slots.reduce((acc, cur: Slot) => ({
10        ...acc,
11        [cur.name]: {
12            name: [cur.name],
13            value: cur.value,
14            confirmationStatus: 'NONE',
15            source: 'USER'
16        }
17    }), {});
18 
19    const json = fs.readFileSync('features/support/mockVoiceService/requestJsonTemplates/intentRequest.json', 'utf-8');
20    const intentRequest = JSON.parse(json);
21 
22    intentRequest.request.intent.name = matchingIntent.intentName;
23    intentRequest.request.intent.slots = slots;
24 
25    this.lastRequest = intentRequest;
26 
27    await executeRequest(this, this.skill, intentRequest);
28});

Zuerst holen wir uns mit getAllUtterances wie oben beschrieben Regular Expressions (und die dazugehörigen Intents) für alle Utterances in unserem Voice Interaction Model.

findMatchingIntent ermittelt dann den aufzurufenden Intent und die zu setzenden Werte für alle eventuell vorhandenen Slots.

expect(allUtterances).toHaveMatchingIntentFor(utterance); prüft, dass wir auch wirklich einen Intent gefunden haben (sonst wäre der Test schon hier fehlgeschlagen). Der matcher toHaveMatchingIntentFor ist ein Custom-Matcher, implementiert in der Datei expectations.js. Dadurch werden besser lesbare Fehlermeldungen in den Tests ermöglicht.

Die folgende Reduce-Anweisung dient dazu, alle ermittelten Slot-Werte aus einem Array in Form eines Dictionary-Objekts für den Skill zusammenzubauen.

Abschließend wird der Request zusammengebaut und mit executeRequest ausgeführt.

Überprüfung der Antwort des Skills

Mit dem nun definierten Step können wir aus einem cucumber-Test heraus einen Intent in unserem Skill aufrufen. Um zu überprüfen, ob der Aufruf erfolgreich war, müssen wir aber auch die Antwort überprüfen. Schauen wir hierzu zunächst auf die Methode executeRequest (die in Gitlab abgelegte Version ist geringfügig komplexer, da sie sich auch um die Weitergabe des Session-States zwischen verschiedenen Aufrufen kümmert):

1async function executeRequest(world, skill, request) {
2    return new Promise((resolve) => {
3        // Add session Attributes to requests
4        skill(request, {}, (error, result) => {
5            world.lastError = error;
6            world.lastResult = result;
7            // Store session attributes from response for future requests
8            resolve();
9        });
10    });
11}

Die executeRequest Methode ist als Promise definiert. Der Promise wird resolved, sobald wir eine Antwort von unserem Skill bekommen haben. Unser Skill wird mit dem zusammengebauten Request aufgerufen und bekommt als dritten Parameter eine Callback-Funktion. Diese Callback-Funktion wird aufgerufen, wenn unser Skill den Request verarbeitet hat. Je nach Erfolg ist dann entweder der Parameter error oder der Parameter result gesetzt. Beide Parameter speichern wir uns im globalen World-Objekt von Cucumber (dort ist der aktuelle Zustand des Tests gespeichert) und können den Promise resolven.

Mit dieser Information wird dann die Implementierung eines Steps zur Überprüfung der Antwort eines Skills ganz einfach:

1Then(/^antwortet Alexa mit[:]? (.*)$/, function (expectedResponse) {
2    expect(this.lastResult.response.outputSpeech.ssml).toEqual(`${expectedResponse}`);
3});

Jeder implementierte Step in cucumber.js erhält über this Zugriff auf das globale world-Objekt (Achtung: deswegen dürfen cucumber-Steps nie mit arrow-functions implementiert werden, da mit arrow-functions das Verhalten des this-Keywords geändert wird). Also haben wir über this.lastResult direkt Zugriff auf das letzte Ergebnis unseres Lambda-Aufrufs. Wenn wir von unserem Skill (wie in diesem Fall) eine Sprachausgabe erwarten, muss diese im outputSpeech-Attribut der Response stehen.

Den aktuellen Stand des Skills findet ihr hier auf Gitlab .

Ausblick

Wir haben nun ein erstes Setup um Akzeptanztests für unseren Alexa Skill in cucumber.js zu formulieren. Mit dieser Technik lassen sich auch weitere Annahmen an die Skill-Antwort formulieren, z.B. dass der Skill Berechtigungen vom Anwender erfragt oder einen Text auf einem eventuell vorhandenen Bildschirm ausgibt.

Auch die Behandlung von Attributen für die Zwischenspeicherung von Werten haben wir noch nicht berücksichtigt. Alexa Skills können bestimmte Werte für die Lebensdauer eines Requests, einer Session oder persistent (zwischen-)speichern. Damit sollte auch unser Testing-Framework umgehen können. Dies wird Bestandteil des nächsten Artikels dieser Blogserie sein .

|

Beitrag teilen

//

Weitere Artikel in diesem Themenbereich

Entdecke spannende weiterführende Themen und lass dich von der codecentric Welt inspirieren.

//

Gemeinsam bessere Projekte umsetzen.

Wir helfen deinem Unternehmen.

Du stehst vor einer großen IT-Herausforderung? Wir sorgen für eine maßgeschneiderte Unterstützung. Informiere dich jetzt.

Hilf uns, noch besser zu werden.

Wir sind immer auf der Suche nach neuen Talenten. Auch für dich ist die passende Stelle dabei.