Wenn Google Assistant an deinem Projekt läuft, probier Folgendes aus:
Sie können anpassen, wie Ihr Projekt mit Assistant interagiert. Du kannst beispielsweise mit einem Tastendruck Google Assistant auslösen oder eine LED blinken lassen. Du kannst dir sogar ein Transkript von Spracherkennung auf dem Display anzeigen lassen.
Verwalten Sie Ihr Projekt mit benutzerdefinierten Befehlen. Sie können beispielsweise Ihren Mocktail-Anbieter mit integriertem Assistant bitten, Ihr Lieblingsgetränk zuzubereiten.
Hier kannst du anpassen, wie dein Projekt mit Assistant interagiert
Assistant auslösen
Mit der Google Assistant Service API können Sie festlegen, wann eine Assistant-Anfrage ausgelöst werden soll. Sie können dies mit dem Beispielcode ändern, z. B. auf Knopfdruck. Zum Auslösen einer Assistant-Anfrage wird eine Anfrage an EmbeddedAssistant.Assist
gesendet.
Transkript der Nutzeranfrage abrufen
Das Google Assistant SDK gibt Ihnen ein Transkript der Nutzeranfrage. So kannst du dem Nutzer Feedback geben, indem er den Text auf einem Display rendert. Dieser Effekt lässt sich auch für kreativere Aktionen wie das Ausführen lokaler Aktionen auf dem Gerät nutzen.
Dieses Transkript befindet sich im Feld SpeechRecognitionResult.transcript
.
Text der Assistant-Antwort abrufen
Über das Google Assistant SDK erhalten Sie den Nur-Text-Text der Assistant-Antwort. Hiermit kann dem Nutzer Feedback gegeben werden, indem der Text auf einem Display gerendert wird.
Dieser Text befindet sich im Feld DialogStateOut.supplemental_display_text
.
Visuelle Antwort von Assistant erhalten
Das Google Assistant SDK unterstützt das Rendern der Assistant-Antwort auf einen Bildschirm im Falle visueller Antworten auf bestimmte Anfragen. Mit der Abfrage Wie ist das Wetter in Mountain View? werden beispielsweise die aktuelle Temperatur, eine bildliche Darstellung des Wetters und Vorschläge für ähnliche Abfragen gerendert. Diese HTML5-Daten befinden sich (falls vorhanden) im Feld ScreenOut.data
, wenn diese Funktion aktiviert ist.
Dies kann in den Beispielen pushtotalk.py
und textinput.py
mit dem Befehlszeilen-Flag --display
aktiviert werden. Die Daten werden in einem Browserfenster gerendert.
Abfragen über Texteingabe senden
Wenn Sie eine Textoberfläche (z. B. eine Tastatur) an das Gerät angeschlossen haben, legen Sie im Feld config
das Feld text_query
fest (siehe AssistConfig
).
Verwenden Sie das Feld audio_in_config
nicht.
Der Beispielcode enthält die Datei textinput.py
. Sie können diese Datei ausführen, um Abfragen über Texteingaben zu senden.
Abfragen über Audiodateien senden
Der Beispielcode enthält die Datei audiofileinput.py
. Sie können diese Datei ausführen, um eine Abfrage über eine Audiodatei zu senden. Im Beispiel wird eine Audiodatei mit der Assistant-Antwort ausgegeben.
Projekt mit benutzerdefinierten Befehlen steuern
Sie können Assistant benutzerdefinierte Befehle hinzufügen, um Ihr Projekt per Sprachbefehl zu steuern.
Dafür gibt es zwei Möglichkeiten:
Erweitern Sie das Beispiel für den Google Assistant-Dienst auf Geräteaktionen.
Erstellen Sie ein IFTTT-Rezept für Assistant. Konfigurieren Sie IFTTT dann, um eine benutzerdefinierte HTTP-Anfrage an einen Endpunkt zu senden, den Sie als Antwort auf einen Assistant-Befehl auswählen. Verwenden Sie dazu Maketer-IFTTT-Aktionen.