Étapes suivantes

Une fois que l'Assistant Google est en cours d'exécution sur votre projet, essayez les solutions suivantes:

  1. Personnalisez la manière dont votre projet interagit avec l'Assistant. Par exemple, déclenchez l'Assistant en appuyant sur un bouton ou clignotez en voyant lors de la lecture de contenu audio. Vous pouvez même afficher une transcription de la reconnaissance vocale depuis l'Assistant sur un écran.

  2. Contrôler votre projet à l'aide de commandes personnalisées Par exemple, demandez à votre outil à mocktail avec Assistant Google intégré de préparer votre boisson préférée.

Personnalisez la manière dont votre projet interagit avec l'Assistant

Déclencher l'Assistant

Avec l'API Google Assistant Service, vous contrôlez quand déclencher une requête de l'Assistant. Modifiez l'exemple de code pour contrôler cette option (par exemple, en appuyant sur un bouton). Pour déclencher une requête de l'Assistant, envoyez une requête à EmbeddedAssistant.Assist.

Obtenir la transcription de la requête de l'utilisateur

Le SDK de l'Assistant Google vous fournit une transcription de la requête de l'utilisateur. Utilisez cette option pour envoyer des commentaires à l'utilisateur en affichant le texte sur un écran, voire pour une création plus créative, comme effectuer des actions locales sur l'appareil.

Cette transcription se trouve dans le champ SpeechRecognitionResult.transcript.

Écouter la réponse de l'Assistant

Le SDK de l'Assistant Google affiche le texte brut de la réponse de l'Assistant. Utilisez cette option pour envoyer des commentaires à l'utilisateur en affichant le texte sur un écran.

Ce texte se trouve dans le champ DialogStateOut.supplemental_display_text.

Obtenir la réponse visuelle de l'Assistant

Le SDK de l'Assistant Google permet d'afficher la réponse de l'Assistant à un écran en cas de réponses visuelles à certaines requêtes. Par exemple, la requête Quel temps fait-il à Mountain View affiche la température actuelle, une représentation graphique de la météo et des suggestions de requêtes associées. Ces données HTML5 (le cas échéant) se trouvent dans le champ ScreenOut.data si cette fonctionnalité est activée.

Cette option peut être activée dans les exemples pushtotalk.py et textinput.py avec l'indicateur de ligne de commande --display. Les données sont affichées dans une fenêtre de navigateur.

Envoi de requêtes via la saisie de texte

Si une interface de texte (par exemple, un clavier) est connectée à l'appareil, définissez le champ text_query dans le champ config (voir AssistConfig). Ne définissez pas le champ audio_in_config.

L'exemple de code inclut le fichier textinput.py. Vous pouvez exécuter ce fichier pour envoyer des requêtes via une entrée de texte.

Envoyer des requêtes en saisissant un fichier audio

L'exemple de code inclut le fichier audiofileinput.py. Vous pouvez exécuter ce fichier pour envoyer une requête via un fichier audio. L'exemple génère un fichier audio avec la réponse de l'Assistant.

Contrôler votre projet avec des commandes personnalisées

Vous pouvez ajouter à l'Assistant des commandes personnalisées qui vous permettent de contrôler votre projet par commande vocale.

Voici deux façons de procéder:

  • Développez l'exemple de service de l'Assistant Google afin d'inclure les actions sur l'appareil.

  • Créez une recette IFTTT pour l'Assistant. Configurez ensuite IFTTT pour envoyer une requête HTTP personnalisée à un point de terminaison que vous choisissez en réponse à une commande de l'Assistant. Pour ce faire, utilisez les actions Makeer IFTTT.