Indeks
EmbeddedAssistant(interfejs)AssistConfig(komunikat)AssistRequest(komunikat)AssistResponse(komunikat)AssistResponse.EventType(wyliczenie)AudioInConfig(komunikat)AudioInConfig.Encoding(wyliczenie)AudioOut(komunikat)AudioOutConfig(komunikat)AudioOutConfig.Encoding(wyliczenie)DebugConfig(komunikat)DebugInfo(komunikat)DeviceAction(komunikat)DeviceConfig(komunikat)DeviceLocation(komunikat)DialogStateIn(komunikat)DialogStateOut(komunikat)DialogStateOut.MicrophoneMode(wyliczenie)ScreenOut(komunikat)ScreenOut.Format(wyliczenie)ScreenOutConfig(komunikat)ScreenOutConfig.ScreenMode(wyliczenie)SpeechRecognitionResult(komunikat)
EmbeddedAssistant
Usługa, która korzysta z interfejsu Google Assistant API.
| Asysta | |
|---|---|
|
Rozpoczyna lub kontynuuje rozmowę z umieszczoną usługą Asystenta. Każde połączenie jest wysyłane w obie strony, wysyłane do usługi żądanie dźwiękowe i odbierane w odpowiedzi audio. Używa dwukierunkowego przesyłania strumieniowego do odbierania wyników, np. zdarzenia Rozmowa to co najmniej jedno połączenie gRPC, z których każde składa się z kilku przesyłanych strumieniowo żądań i odpowiedzi. Na przykład użytkownik powie Dodaj do mojej listy zakupów, a Asystent odpowie Co chcesz dodać?. Sekwencja przesyłanych strumieniowo żądań i odpowiedzi w pierwszym komunikacie gRPC mogłaby wyglądać tak:
Następnie użytkownik mówi bajgle, a Asystent odpowiada OK, dodałem bajgle do listy zakupów. Jest ono wysyłane jako kolejne wywołanie połączenia gRPC do metody
Chociaż dokładna kolejność odpowiedzi nie jest gwarantowana, kolejne komunikaty
|
|
AssistConfig
Określa sposób przetwarzania wiadomości AssistRequest.
| Pola | ||
|---|---|---|
audio_out_config |
Wymagane – określa sposób formatowania dźwięku, który ma być zwracany. |
|
screen_out_config |
Opcjonalny określa format, który ma być używany, gdy serwer zwraca odpowiedź na ekran. |
|
dialog_state_in |
Wymagane Reprezentuje bieżący stan okna. |
|
device_config |
Konfiguracja, która jednoznacznie identyfikuje konkretne urządzenie. |
|
debug_config |
Opcjonalne parametry debugowania dla całego wywołania RPC |
|
Pole sumy
|
||
audio_in_config |
Określa sposób przetwarzania następnego przychodzącego dźwięku. Wymagane, jeśli w kolejnych żądaniach będzie podawane |
|
text_query |
Tekst, który ma zostać wysłany do Asystenta. Jeśli dane wejściowe audio są niedostępne, można je uzupełnić z interfejsu tekstowego. |
|
AssistRequest
Wiadomość najwyższego poziomu wysłana przez klienta. Klienci muszą wysłać co najmniej dwie (zwykle dużą liczbę wiadomości) wiadomości AssistRequest. Pierwsza wiadomość musi zawierać wiadomość config i nie może zawierać danych audio_in. Wszystkie kolejne wiadomości muszą zawierać dane audio_in i nie mogą zawierać wiadomości config.
| Pola | ||
|---|---|---|
Pole sumy type. W każdym polu AssistRequest musisz podać dokładnie jedno z tych pól. type może mieć tylko jedną z tych wartości: |
||
config |
Komunikat |
|
audio_in |
Dane dźwiękowe do rozpoznania. Kolejne fragmenty danych dźwiękowych są wysyłane w formie kolejnych komunikatów w trybie |
|
AssistResponse
Wiadomość najwyższego poziomu odebrana przez klienta. Seria co najmniej jednej wiadomości w usłudze AssistResponse jest przesyłana z powrotem do klienta.
| Pola | |
|---|---|
event_type |
Tylko dane wyjściowe Wskazuje typ zdarzenia. |
audio_out |
Tylko dane wyjściowe – dźwięk zawierający odpowiedź Asystenta na zapytanie. |
screen_out |
Tylko dane wyjściowe Zawiera wizualną odpowiedź Asystenta na zapytanie. |
device_action |
Tylko dane wyjściowe Zawiera działanie aktywowane przez zapytanie z odpowiednimi ładunkami i analizą semantyczną. |
speech_results[] |
Tylko dane wyjściowe: ta lista powtarzana zawiera zero lub więcej wyników rozpoznawania mowy, które odpowiadają kolejnym przetwarzanym obecnie częściom dźwięku – poczynając od fragmentu odpowiadającego najwcześniejszemu utwórowi (i najbardziej stabilnej) po fragment odpowiadający najnowszemu dźwiękowi. Możesz połączyć ciągi tekstowe, aby wyświetlić pełną odpowiedź w toku. Po zakończeniu rozpoznawania mowy lista będzie zawierać jeden element z |
dialog_state_out |
Tylko dane wyjściowe Zawiera dane wyjściowe związane z zapytaniem użytkownika. |
debug_info |
Tylko dane wyjściowe – dane debugowania dla dewelopera. Zwracana tylko wtedy, gdy w żądaniu |
EventType
Wskazuje typ zdarzenia.
| Wartości w polu enum | |
|---|---|
EVENT_TYPE_UNSPECIFIED |
Nie określono zdarzenia. |
END_OF_UTTERANCE |
To zdarzenie oznacza, że serwer wykrył koniec wypowiedzi użytkownika i nie oczekuje żadnej dodatkowej mowy. Dlatego serwer nie przetwarza dodatkowego dźwięku (chociaż może później zwracać dodatkowe wyniki). Klient powinien przestać wysyłać dodatkowe dane audio, zamknąć do połowy połączenie gRPC i poczekać na dodatkowe wyniki, aż serwer zamknie połączenie gRPC. |
AudioInConfig
Określa, jak przetwarzać dane audio_in przekazywane w kolejnych żądaniach. Zalecane ustawienia znajdziesz w sprawdzonych metodach dotyczących pakietu SDK Asystenta Google.
| Pola | |
|---|---|
encoding |
Wymagane kodowanie danych dźwiękowych wysyłanych we wszystkich wiadomościach typu |
sample_rate_hertz |
Wymagane – częstotliwość próbkowania (w hercach) danych dźwiękowych wysłanych we wszystkich wiadomościach typu |
Kodowanie
Kodowanie dźwięku danych wysłanych w wiadomości głosowej. Dźwięk musi być jednokanałowy (mono).
| Wartości w polu enum | |
|---|---|
ENCODING_UNSPECIFIED |
Nie określono. Zwrócony wynik to google.rpc.Code.INVALID_ARGUMENT. |
LINEAR16 |
Nieskompresowane, podpisane 16-bitowe próbki little-endian (Linear PCM). Kodowanie nie obejmuje nagłówka, a jedynie nieprzetworzone bajty audio. |
FLAC |
Zalecane jest kodowanie FLAC (Free Lossless Audio Codec), ponieważ jest ono bezstratne, dzięki czemu rozpoznawanie nie jest zagrożone i wymaga tylko około połowy przepustowości LINEAR16. To kodowanie obejmuje nagłówek strumienia FLAC, po którym następuje dane audio. Obsługuje on 16- i 24-bitowe próbki, ale nie wszystkie pola w STREAMINFO są obsługiwane. |
AudioOut
Nagranie z odpowiedzią Asystenta na pytanie. Kolejne fragmenty danych dźwiękowych są odbierane w sekwencji komunikatów AssistResponse.
| Pola | |
|---|---|
audio_data |
Tylko dane wyjściowe: dane dźwiękowe zawierające odpowiedź Asystenta na zapytanie. Kolejne fragmenty danych dźwiękowych są odbierane w sekwencji komunikatów |
AudioOutConfig
Określa format, który ma być używany przez serwer przy zwracaniu wiadomości audio_out.
| Pola | |
|---|---|
encoding |
Wymagane kodowanie danych dźwiękowych, które mają być zwracane we wszystkich wiadomościach typu |
sample_rate_hertz |
Wymagane: częstotliwość próbkowania danych audio zwracanych w wiadomościach ( |
volume_percentage |
Wymagane: bieżące ustawienie głośności wyjścia audio urządzenia. Prawidłowe wartości to od 1 do 100 (odpowiadające 1%–100%). |
Kodowanie
Kodowanie dźwięku danych zwróconych w wiadomości głosowej. Wszystkie kodowanie są nieprzetworzonymi bajtami audio bez nagłówka, z wyjątkiem sytuacji opisanych poniżej.
| Wartości w polu enum | |
|---|---|
ENCODING_UNSPECIFIED |
Nie określono. Zwrócony wynik to google.rpc.Code.INVALID_ARGUMENT. |
LINEAR16 |
Nieskompresowane, podpisane 16-bitowe próbki little-endian (Linear PCM). |
MP3 |
Kodowanie audio MP3. Częstotliwość próbkowania jest kodowana w ładunku. |
OPUS_IN_OGG |
Dźwięk w kodowaniu opus zapakowany w kontenerze Ogg. Powstanie plik, który można natywnie odtwarzać na Androidzie i w niektórych przeglądarkach (np. Chrome). Jakość kodowania jest znacznie wyższa niż jakość MP3 przy tej samej szybkości transmisji bitów. Częstotliwość próbkowania jest kodowana w ładunku. |
DebugConfig
Parametry debugowania bieżącego żądania.
| Pola | |
|---|---|
return_debug_info |
Gdy to pole ma wartość Prawda, pole |
DebugInfo
Dane debugowania dla dewelopera. Zwracana tylko wtedy, gdy w żądaniu return_debug_info ustawiono wartość Prawda.
| Pola | |
|---|---|
aog_agent_to_assistant_json |
Oryginalna odpowiedź JSON od agenta Action-on-Google do serwera Google. Zobacz AppResponse. Pole jest wypełniane tylko wtedy, gdy twórca żądań jest właścicielem projektu AoG, a projekt AoG jest w trybie podglądu. |
DeviceAction
Odpowiedź zwracana na urządzenie, jeśli użytkownik wywołał akcję urządzenia. Na przykład urządzenie, które obsługuje zapytanie Turn on the light, otrzyma na przykład żądanie DeviceAction z ładunkiem JSON zawierającym semantykę żądania.
| Pola | |
|---|---|
device_request_json |
Plik JSON zawierający odpowiedź na polecenie urządzenia wygenerowaną na podstawie gramatyki akcji na urządzeniu. Format jest określony przez intencję |
DeviceConfig
Wymagane pola identyfikujące urządzenie przez Asystenta.
Zobacz także:
| Pola | |
|---|---|
device_id |
Wymagany unikalny identyfikator urządzenia. Identyfikator może mieć maksymalnie 128 znaków. Przykład: DBCDW098234. Ten identyfikator MUSI być zgodny z identyfikatorem urządzenia zwróconym podczas rejestracji urządzenia. Ten identyfikator device_id służy do porównywania zarejestrowanych urządzeń użytkownika w celu wyszukiwania obsługiwanych cech i możliwości tego urządzenia. Te informacje nie powinny zmieniać się po ponownym uruchomieniu urządzenia. Nie należy go jednak zapisywać po przywróceniu ustawień fabrycznych. |
device_model_id |
Wymagany unikalny identyfikator modelu urządzenia. Kombinacja atrybutów device_model_id i device_id musi zostać wcześniej powiązana przez rejestrację urządzenia. |
DeviceLocation
Istnieją trzy źródła lokalizacji. Są one używane w taki sposób:
- To urządzenie
DeviceLocation, które jest używane głównie na urządzeniach mobilnych z GPS-em . - Lokalizację podaną przez użytkownika podczas konfiguracji urządzenia określa użytkownik. Ta lokalizacja będzie używana, jeśli nie podasz
DeviceLocation. - Lokalizacja wywnioskowana na podstawie adresu IP. Jest ona używana tylko wtedy, gdy nie określono żadnego z powyższych.
| Pola | |
|---|---|
coordinates |
Długość i szerokość geograficzna urządzenia. |
DialogStateIn
Zawiera informacje o bieżącym stanie okna dialogowego.
| Pola | |
|---|---|
conversation_state |
Wymagane – to pole musi zawsze zawierać wartość |
language_code |
Wymagany język żądania w składni IETF BCP 47 (np. „en-US”). Więcej informacji znajdziesz w artykule Obsługa języków. Jeśli język dla tego urządzenia ( |
device_location |
Opcjonalne: lokalizacja urządzenia, z którego pochodzi zapytanie. |
is_new_conversation |
Opcjonalny – jeśli ma wartość true (prawda), serwer potraktuje żądanie jako nową rozmowę i nie użyje stanu z poprzedniego żądania. Ustaw to pole na „true” (prawda), gdy rozmowa ma zostać ponownie uruchomiona, na przykład po ponownym uruchomieniu urządzenia lub gdy upłynęło dużo czasu od poprzedniego zapytania. |
DialogStateOut
Stan okna spowodowanego zapytaniem użytkownika. Wiele z tych wiadomości może być odbieranych.
| Pola | |
|---|---|
supplemental_display_text |
Tylko dane wyjściowe – dodatkowy tekst wyświetlany przez Asystenta. Może to być ta sama wypowiedź w języku: |
conversation_state |
Tylko dane wyjściowe – informacje o stanie dla kolejnego RPC |
microphone_mode |
Tylko dane wyjściowe – określa tryb mikrofonu po przetworzeniu tego wywołania RPC |
volume_percentage |
Tylko na wyjściu Zaktualizowano poziom głośności. Wartość będzie wynosić 0 lub jest pomijana (oznacza brak zmian), chyba że rozpoznano polecenie głosowe, np. Zwiększ głośność lub Ustaw głośność 4. W takim przypadku wartość mieści się w zakresie od 1 do 100 (odpowiada nowemu poziomowi głośności od 1% do 100%). Zazwyczaj klient powinien używać tego poziomu głośności podczas odtwarzania danych |
MicrophoneMode
Możliwe stany mikrofonu po zakończeniu RPC Assist.
| Wartości w polu enum | |
|---|---|
MICROPHONE_MODE_UNSPECIFIED |
Nie określono trybu. |
CLOSE_MICROPHONE |
Usługa nie oczekuje od użytkownika kolejnego pytania. Mikrofon powinien pozostać wyłączony, dopóki użytkownik go ponownie nie aktywuje. |
DIALOG_FOLLOW_ON |
Usługa oczekuje od użytkownika kolejnego pytania. Mikrofon powinien zostać ponownie włączony po zakończeniu odtwarzania elementu AudioOut (przez rozpoczęcie nowego wywołania RPC Assist w celu wysłania nowego dźwięku). |
ScreenOut
Wizualna odpowiedź Asystenta na zapytanie. Włączona przez usługę screen_out_config.
| Pola | |
|---|---|
format |
Tylko dane wyjściowe – format wyświetlanych danych ekranu. |
data |
Tylko dane wyjściowe: nieprzetworzone dane ekranu wyświetlane w wyniku zapytania do Asystenta. |
Format
Możliwe formaty danych ekranu.
| Wartości w polu enum | |
|---|---|
FORMAT_UNSPECIFIED |
Nie określono formatu. |
HTML |
Dane będą zawierać w pełni sformatowany układ HTML5 zakodowany w UTF-8, np. <html><body><div>...</div></body></html>. Powinien być renderowany razem z odpowiedzią głosową. Pamiętaj, że w danych HTML należy uwzględnić format doctype HTML5. |
ScreenOutConfig
Określa format, który ma być używany przez serwer przy zwracaniu odpowiedzi screen_out.
| Pola | |
|---|---|
screen_mode |
Bieżący tryb wizualnego ekranu urządzenia podczas wysyłania zapytania. |
ScreenMode
Możliwe tryby wizualnego wyświetlania ekranu na urządzeniu.
| Wartości w polu enum | |
|---|---|
SCREEN_MODE_UNSPECIFIED |
Nie określono trybu wideo. Asystent może reagować tak, jakby był w trybie OFF. |
OFF |
Ekran jest wyłączony (lub ma ustawioną tak niską jasność bądź inne ustawienia, że jest niewidoczna). W tym trybie Asystent zazwyczaj nie zwraca odpowiedzi ekranu. |
PLAYING |
W tym trybie Asystent zwykle zwraca odpowiedź częściowo na ekranie. |
SpeechRecognitionResult
Szacowana transkrypcja wyrażenia wypowiedzianego przez użytkownika. Może to być pojedynczy segment lub pełne odgadnięcie wypowiedzi użytkownika.
| Pola | |
|---|---|
transcript |
Tylko dane wyjściowe: tekst transkrypcji reprezentujący słowa wypowiedziane przez użytkownika. |
stability |
Tylko dane wyjściowe – oszacowanie prawdopodobieństwa, że Asystent nie zmieni swojej przypuszczalnej kwestii dotyczącej tego wyniku. Wartości pochodzą z zakresu od 0,0 (całkowicie niestabilny) do 1,0 (całkowicie stabilne i ostateczne). Wartość domyślna (0,0) to wartość wskaźnika, która oznacza, że |