Cuando el Asistente de Google se esté ejecutando en tu proyecto, prueba lo siguiente:
Personaliza la manera en que tu proyecto interactúa con Asistente. Por ejemplo, activa Asistente con solo presionar un botón o parpadear una luz LED cuando reproduce audio. Incluso puedes mostrar una transcripción de reconocimiento de voz desde Asistente en una pantalla.
Controla tu proyecto con comandos personalizados. Por ejemplo, pídele a tu creador de cocteles compatible con Asistente que prepare tu trago favorito.
Personaliza cómo interactúa tu proyecto con Asistente
Activa Asistente
Con la API de Asistente de Google, puedes controlar cuándo activar una solicitud de Asistente. Modifica el código de muestra para controlar esto (por ejemplo, con solo presionar un botón). Se activa una solicitud de Asistente mediante el envío de una solicitud a EmbeddedAssistant.Assist
.
Obtén la transcripción de la solicitud del usuario
El SDK del Asistente de Google te envía una transcripción de texto de la solicitud del usuario. Úsalo para proporcionar comentarios al usuario mediante la renderización del texto en una pantalla o incluso para algo más creativo, como realizar algunas acciones locales en el dispositivo.
La transcripción se encuentra en el campo SpeechRecognitionResult.transcript
.
Cómo obtener el texto de la respuesta de Asistente
El SDK de Asistente de Google te muestra el texto sin formato de la respuesta de Asistente. Úsalo para proporcionar comentarios al usuario mediante la renderización del texto en una pantalla.
Este texto se encuentra en el campo DialogStateOut.supplemental_display_text
.
Obtén la respuesta visual del Asistente
El SDK de Asistente de Google admite la renderización de la respuesta de Asistente a una pantalla en caso de respuestas visuales a ciertas consultas. Por ejemplo, la consulta ¿Cómo está el clima en Mountain View? renderizará la temperatura actual, una representación ilustrativa del clima y sugerencias para consultas relacionadas. Estos datos HTML5 (si están presentes) se encuentran en el campo ScreenOut.data
si esta función está habilitada.
Esto se puede habilitar en las muestras pushtotalk.py
y textinput.py
con la marca de línea de comandos --display
. Los datos se renderizan en una ventana del navegador.
Cómo enviar consultas a través de una entrada de texto
Si tienes una interfaz de texto (por ejemplo, un teclado) conectada al dispositivo, configura el campo text_query
en el campo config
(consulta AssistConfig
). No configures el campo audio_in_config
.
El código de muestra incluye el archivo textinput.py
. Puedes ejecutar este archivo para enviar consultas a través de una entrada de texto.
Envía consultas mediante la entrada de archivo de audio
El código de muestra incluye el archivo audiofileinput.py
. Puedes ejecutar este archivo para enviar una consulta a través de un archivo de audio. La muestra genera un archivo de audio con la respuesta de Asistente.
Controla tu proyecto con comandos personalizados
Puedes agregar comandos personalizados al Asistente que te permitan controlar tu proyecto con la voz.
Puedes hacerlo de las siguientes dos maneras:
Extiende la muestra de servicio de Asistente de Google para que incluya Acciones del dispositivo.
Crea una receta de IFTTT para Asistente. Luego, configura IFTTT para realizar una solicitud HTTP personalizada al extremo que elijas en respuesta a un comando de Asistente. Para hacerlo, usa las acciones de IFTTT de Maker.