Nächste Schritte

Wenn Google Assistant an deinem Projekt läuft, probier Folgendes aus:

  1. Sie können anpassen, wie Ihr Projekt mit Assistant interagiert. Du kannst beispielsweise mit einem Tastendruck Google Assistant auslösen oder eine LED blinken lassen. Du kannst dir sogar ein Transkript von Spracherkennung auf dem Display anzeigen lassen.

  2. Verwalten Sie Ihr Projekt mit benutzerdefinierten Befehlen. Sie können beispielsweise Ihren Mocktail-Anbieter mit integriertem Assistant bitten, Ihr Lieblingsgetränk zuzubereiten.

Hier kannst du anpassen, wie dein Projekt mit Assistant interagiert

Assistant auslösen

Mit der Google Assistant Service API können Sie festlegen, wann eine Assistant-Anfrage ausgelöst werden soll. Sie können dies mit dem Beispielcode ändern, z. B. auf Knopfdruck. Zum Auslösen einer Assistant-Anfrage wird eine Anfrage an EmbeddedAssistant.Assist gesendet.

Transkript der Nutzeranfrage abrufen

Das Google Assistant SDK gibt Ihnen ein Transkript der Nutzeranfrage. So kannst du dem Nutzer Feedback geben, indem er den Text auf einem Display rendert. Dieser Effekt lässt sich auch für kreativere Aktionen wie das Ausführen lokaler Aktionen auf dem Gerät nutzen.

Dieses Transkript befindet sich im Feld SpeechRecognitionResult.transcript.

Text der Assistant-Antwort abrufen

Über das Google Assistant SDK erhalten Sie den Nur-Text-Text der Assistant-Antwort. Hiermit kann dem Nutzer Feedback gegeben werden, indem der Text auf einem Display gerendert wird.

Dieser Text befindet sich im Feld DialogStateOut.supplemental_display_text.

Visuelle Antwort von Assistant erhalten

Das Google Assistant SDK unterstützt das Rendern der Assistant-Antwort auf einen Bildschirm im Falle visueller Antworten auf bestimmte Anfragen. Mit der Abfrage Wie ist das Wetter in Mountain View? werden beispielsweise die aktuelle Temperatur, eine bildliche Darstellung des Wetters und Vorschläge für ähnliche Abfragen gerendert. Diese HTML5-Daten befinden sich (falls vorhanden) im Feld ScreenOut.data, wenn diese Funktion aktiviert ist.

Dies kann in den Beispielen pushtotalk.py und textinput.py mit dem Befehlszeilen-Flag --display aktiviert werden. Die Daten werden in einem Browserfenster gerendert.

Abfragen über Texteingabe senden

Wenn Sie eine Textoberfläche (z. B. eine Tastatur) an das Gerät angeschlossen haben, legen Sie im Feld config das Feld text_query fest (siehe AssistConfig). Verwenden Sie das Feld audio_in_config nicht.

Der Beispielcode enthält die Datei textinput.py. Sie können diese Datei ausführen, um Abfragen über Texteingaben zu senden.

Abfragen über Audiodateien senden

Der Beispielcode enthält die Datei audiofileinput.py. Sie können diese Datei ausführen, um eine Abfrage über eine Audiodatei zu senden. Im Beispiel wird eine Audiodatei mit der Assistant-Antwort ausgegeben.

Projekt mit benutzerdefinierten Befehlen steuern

Sie können Assistant benutzerdefinierte Befehle hinzufügen, um Ihr Projekt per Sprachbefehl zu steuern.

Dafür gibt es zwei Möglichkeiten:

  • Erweitern Sie das Beispiel für den Google Assistant-Dienst auf Geräteaktionen.

  • Erstellen Sie ein IFTTT-Rezept für Assistant. Konfigurieren Sie IFTTT dann, um eine benutzerdefinierte HTTP-Anfrage an einen Endpunkt zu senden, den Sie als Antwort auf einen Assistant-Befehl auswählen. Verwenden Sie dazu Maketer-IFTTT-Aktionen.