Próximos pasos

Cuando el Asistente de Google se esté ejecutando en tu proyecto, prueba lo siguiente:

  1. Personaliza la manera en que tu proyecto interactúa con Asistente. Por ejemplo, activa Asistente con solo presionar un botón o parpadear una luz LED cuando reproduce audio. Incluso puedes mostrar una transcripción de reconocimiento de voz desde Asistente en una pantalla.

  2. Controla tu proyecto con comandos personalizados. Por ejemplo, pídele a tu creador de cocteles compatible con Asistente que prepare tu trago favorito.

Personaliza cómo interactúa tu proyecto con Asistente

Activa Asistente

Con la API de Asistente de Google, puedes controlar cuándo activar una solicitud de Asistente. Modifica el código de muestra para controlar esto (por ejemplo, con solo presionar un botón). Se activa una solicitud de Asistente mediante el envío de una solicitud a EmbeddedAssistant.Assist.

Obtén la transcripción de la solicitud del usuario

El SDK del Asistente de Google te envía una transcripción de texto de la solicitud del usuario. Úsalo para proporcionar comentarios al usuario mediante la renderización del texto en una pantalla o incluso para algo más creativo, como realizar algunas acciones locales en el dispositivo.

La transcripción se encuentra en el campo SpeechRecognitionResult.transcript.

Cómo obtener el texto de la respuesta de Asistente

El SDK de Asistente de Google te muestra el texto sin formato de la respuesta de Asistente. Úsalo para proporcionar comentarios al usuario mediante la renderización del texto en una pantalla.

Este texto se encuentra en el campo DialogStateOut.supplemental_display_text.

Obtén la respuesta visual del Asistente

El SDK de Asistente de Google admite la renderización de la respuesta de Asistente a una pantalla en caso de respuestas visuales a ciertas consultas. Por ejemplo, la consulta ¿Cómo está el clima en Mountain View? renderizará la temperatura actual, una representación ilustrativa del clima y sugerencias para consultas relacionadas. Estos datos HTML5 (si están presentes) se encuentran en el campo ScreenOut.data si esta función está habilitada.

Esto se puede habilitar en las muestras pushtotalk.py y textinput.py con la marca de línea de comandos --display. Los datos se renderizan en una ventana del navegador.

Cómo enviar consultas a través de una entrada de texto

Si tienes una interfaz de texto (por ejemplo, un teclado) conectada al dispositivo, configura el campo text_query en el campo config (consulta AssistConfig). No configures el campo audio_in_config.

El código de muestra incluye el archivo textinput.py. Puedes ejecutar este archivo para enviar consultas a través de una entrada de texto.

Envía consultas mediante la entrada de archivo de audio

El código de muestra incluye el archivo audiofileinput.py. Puedes ejecutar este archivo para enviar una consulta a través de un archivo de audio. La muestra genera un archivo de audio con la respuesta de Asistente.

Controla tu proyecto con comandos personalizados

Puedes agregar comandos personalizados al Asistente que te permitan controlar tu proyecto con la voz.

Puedes hacerlo de las siguientes dos maneras: