Indeks
- EmbeddedAssistant(interfejs)
- AssistConfig(komunikat)
- AssistRequest(komunikat)
- AssistResponse(komunikat)
- AssistResponse.EventType(wyliczenie)
- AudioInConfig(komunikat)
- AudioInConfig.Encoding(wyliczenie)
- AudioOut(komunikat)
- AudioOutConfig(komunikat)
- AudioOutConfig.Encoding(wyliczenie)
- DebugConfig(komunikat)
- DebugInfo(komunikat)
- DeviceAction(komunikat)
- DeviceConfig(komunikat)
- DeviceLocation(komunikat)
- DialogStateIn(komunikat)
- DialogStateOut(komunikat)
- DialogStateOut.MicrophoneMode(wyliczenie)
- ScreenOut(komunikat)
- ScreenOut.Format(wyliczenie)
- ScreenOutConfig(komunikat)
- ScreenOutConfig.ScreenMode(wyliczenie)
- SpeechRecognitionResult(komunikat)
EmbeddedAssistant
Usługa, która korzysta z interfejsu Google Assistant API.
| Asysta | |
|---|---|
| 
 Rozpoczyna lub kontynuuje rozmowę z umieszczoną usługą Asystenta. Każde połączenie jest wysyłane w obie strony, wysyłane do usługi żądanie dźwiękowe i odbierane w odpowiedzi audio. Używa dwukierunkowego przesyłania strumieniowego do odbierania wyników, np. zdarzenia  Rozmowa to co najmniej jedno połączenie gRPC, z których każde składa się z kilku przesyłanych strumieniowo żądań i odpowiedzi. Na przykład użytkownik powie Dodaj do mojej listy zakupów, a Asystent odpowie Co chcesz dodać?. Sekwencja przesyłanych strumieniowo żądań i odpowiedzi w pierwszym komunikacie gRPC mogłaby wyglądać tak: 
 Następnie użytkownik mówi bajgle, a Asystent odpowiada OK, dodałem bajgle do listy zakupów. Jest ono wysyłane jako kolejne wywołanie połączenia gRPC do metody  
 Chociaż dokładna kolejność odpowiedzi nie jest gwarantowana, kolejne komunikaty  
 | |
AssistConfig
Określa sposób przetwarzania wiadomości AssistRequest.
| Pola | ||
|---|---|---|
| audio_out_config | Wymagane – określa sposób formatowania dźwięku, który ma być zwracany. | |
| screen_out_config | Opcjonalny określa format, który ma być używany, gdy serwer zwraca odpowiedź na ekran. | |
| dialog_state_in | Wymagane Reprezentuje bieżący stan okna. | |
| device_config | Konfiguracja, która jednoznacznie identyfikuje konkretne urządzenie. | |
| debug_config | 
                    Opcjonalne parametry debugowania dla całego wywołania RPC  | |
| Pole sumy  
 | ||
| audio_in_config | 
                    Określa sposób przetwarzania następnego przychodzącego dźwięku. Wymagane, jeśli w kolejnych żądaniach będzie podawane  | |
| text_query | 
 Tekst, który ma zostać wysłany do Asystenta. Jeśli dane wejściowe audio są niedostępne, można je uzupełnić z interfejsu tekstowego. | |
AssistRequest
Wiadomość najwyższego poziomu wysłana przez klienta. Klienci muszą wysłać co najmniej dwie (zwykle dużą liczbę wiadomości) wiadomości AssistRequest. Pierwsza wiadomość musi zawierać wiadomość config i nie może zawierać danych audio_in. Wszystkie kolejne wiadomości muszą zawierać dane audio_in i nie mogą zawierać wiadomości config.
| Pola | ||
|---|---|---|
| Pole sumy type. W każdym poluAssistRequestmusisz podać dokładnie jedno z tych pól.typemoże mieć tylko jedną z tych wartości: | ||
| config | 
                    Komunikat  | |
| audio_in | 
 
                    Dane dźwiękowe do rozpoznania. Kolejne fragmenty danych dźwiękowych są wysyłane w formie kolejnych komunikatów w trybie  | |
AssistResponse
Wiadomość najwyższego poziomu odebrana przez klienta. Seria co najmniej jednej wiadomości w usłudze AssistResponse jest przesyłana z powrotem do klienta.
| Pola | |
|---|---|
| event_type | Tylko dane wyjściowe Wskazuje typ zdarzenia. | 
| audio_out | Tylko dane wyjściowe – dźwięk zawierający odpowiedź Asystenta na zapytanie. | 
| screen_out | Tylko dane wyjściowe Zawiera wizualną odpowiedź Asystenta na zapytanie. | 
| device_action | Tylko dane wyjściowe Zawiera działanie aktywowane przez zapytanie z odpowiednimi ładunkami i analizą semantyczną. | 
| speech_results[] | 
                    Tylko dane wyjściowe: ta lista powtarzana zawiera zero lub więcej wyników rozpoznawania mowy, które odpowiadają kolejnym przetwarzanym obecnie częściom dźwięku – poczynając od fragmentu odpowiadającego najwcześniejszemu utwórowi (i najbardziej stabilnej) po fragment odpowiadający najnowszemu dźwiękowi. Możesz połączyć ciągi tekstowe, aby wyświetlić pełną odpowiedź w toku. Po zakończeniu rozpoznawania mowy lista będzie zawierać jeden element z  | 
| dialog_state_out | Tylko dane wyjściowe Zawiera dane wyjściowe związane z zapytaniem użytkownika. | 
| debug_info | 
                    Tylko dane wyjściowe – dane debugowania dla dewelopera. Zwracana tylko wtedy, gdy w żądaniu  | 
EventType
Wskazuje typ zdarzenia.
| Wartości w polu enum | |
|---|---|
| EVENT_TYPE_UNSPECIFIED | Nie określono zdarzenia. | 
| END_OF_UTTERANCE | To zdarzenie oznacza, że serwer wykrył koniec wypowiedzi użytkownika i nie oczekuje żadnej dodatkowej mowy. Dlatego serwer nie przetwarza dodatkowego dźwięku (chociaż może później zwracać dodatkowe wyniki). Klient powinien przestać wysyłać dodatkowe dane audio, zamknąć do połowy połączenie gRPC i poczekać na dodatkowe wyniki, aż serwer zamknie połączenie gRPC. | 
AudioInConfig
Określa, jak przetwarzać dane audio_in przekazywane w kolejnych żądaniach. Zalecane ustawienia znajdziesz w sprawdzonych metodach dotyczących pakietu SDK Asystenta Google.
| Pola | |
|---|---|
| encoding | 
                    Wymagane kodowanie danych dźwiękowych wysyłanych we wszystkich wiadomościach typu  | 
| sample_rate_hertz | 
 
                    Wymagane – częstotliwość próbkowania (w hercach) danych dźwiękowych wysłanych we wszystkich wiadomościach typu  | 
Kodowanie
Kodowanie dźwięku danych wysłanych w wiadomości głosowej. Dźwięk musi być jednokanałowy (mono).
| Wartości w polu enum | |
|---|---|
| ENCODING_UNSPECIFIED | Nie określono. Zwrócony wynik to google.rpc.Code.INVALID_ARGUMENT. | 
| LINEAR16 | Nieskompresowane, podpisane 16-bitowe próbki little-endian (Linear PCM). Kodowanie nie obejmuje nagłówka, a jedynie nieprzetworzone bajty audio. | 
| FLAC | Zalecane jest kodowanie FLAC(Free Lossless Audio Codec), ponieważ jest ono bezstratne, dzięki czemu rozpoznawanie nie jest zagrożone i wymaga tylko około połowy przepustowościLINEAR16. To kodowanie obejmuje nagłówek strumieniaFLAC, po którym następuje dane audio. Obsługuje on 16- i 24-bitowe próbki, ale nie wszystkie pola wSTREAMINFOsą obsługiwane. | 
AudioOut
Nagranie z odpowiedzią Asystenta na pytanie. Kolejne fragmenty danych dźwiękowych są odbierane w sekwencji komunikatów AssistResponse.
| Pola | |
|---|---|
| audio_data | 
 
                    Tylko dane wyjściowe: dane dźwiękowe zawierające odpowiedź Asystenta na zapytanie. Kolejne fragmenty danych dźwiękowych są odbierane w sekwencji komunikatów  | 
AudioOutConfig
Określa format, który ma być używany przez serwer przy zwracaniu wiadomości audio_out.
| Pola | |
|---|---|
| encoding | 
                    Wymagane kodowanie danych dźwiękowych, które mają być zwracane we wszystkich wiadomościach typu  | 
| sample_rate_hertz | 
 
                    Wymagane: częstotliwość próbkowania danych audio zwracanych w wiadomościach ( | 
| volume_percentage | 
 Wymagane: bieżące ustawienie głośności wyjścia audio urządzenia. Prawidłowe wartości to od 1 do 100 (odpowiadające 1%–100%). | 
Kodowanie
Kodowanie dźwięku danych zwróconych w wiadomości głosowej. Wszystkie kodowanie są nieprzetworzonymi bajtami audio bez nagłówka, z wyjątkiem sytuacji opisanych poniżej.
| Wartości w polu enum | |
|---|---|
| ENCODING_UNSPECIFIED | Nie określono. Zwrócony wynik to google.rpc.Code.INVALID_ARGUMENT. | 
| LINEAR16 | Nieskompresowane, podpisane 16-bitowe próbki little-endian (Linear PCM). | 
| MP3 | Kodowanie audio MP3. Częstotliwość próbkowania jest kodowana w ładunku. | 
| OPUS_IN_OGG | Dźwięk w kodowaniu opus zapakowany w kontenerze Ogg. Powstanie plik, który można natywnie odtwarzać na Androidzie i w niektórych przeglądarkach (np. Chrome). Jakość kodowania jest znacznie wyższa niż jakość MP3 przy tej samej szybkości transmisji bitów. Częstotliwość próbkowania jest kodowana w ładunku. | 
DebugConfig
Parametry debugowania bieżącego żądania.
| Pola | |
|---|---|
| return_debug_info | 
 
                    Gdy to pole ma wartość Prawda, pole  | 
DebugInfo
Dane debugowania dla dewelopera. Zwracana tylko wtedy, gdy w żądaniu return_debug_info ustawiono wartość Prawda.
| Pola | |
|---|---|
| aog_agent_to_assistant_json | 
 Oryginalna odpowiedź JSON od agenta Action-on-Google do serwera Google. Zobacz AppResponse. Pole jest wypełniane tylko wtedy, gdy twórca żądań jest właścicielem projektu AoG, a projekt AoG jest w trybie podglądu. | 
DeviceAction
Odpowiedź zwracana na urządzenie, jeśli użytkownik wywołał akcję urządzenia. Na przykład urządzenie, które obsługuje zapytanie Turn on the light, otrzyma na przykład żądanie DeviceAction z ładunkiem JSON zawierającym semantykę żądania.
| Pola | |
|---|---|
| device_request_json | 
 
                    Plik JSON zawierający odpowiedź na polecenie urządzenia wygenerowaną na podstawie gramatyki akcji na urządzeniu. Format jest określony przez intencję  | 
DeviceConfig
Wymagane pola identyfikujące urządzenie przez Asystenta.
Zobacz także:
| Pola | |
|---|---|
| device_id | 
 Wymagany unikalny identyfikator urządzenia. Identyfikator może mieć maksymalnie 128 znaków. Przykład: DBCDW098234. Ten identyfikator MUSI być zgodny z identyfikatorem urządzenia zwróconym podczas rejestracji urządzenia. Ten identyfikator device_id służy do porównywania zarejestrowanych urządzeń użytkownika w celu wyszukiwania obsługiwanych cech i możliwości tego urządzenia. Te informacje nie powinny zmieniać się po ponownym uruchomieniu urządzenia. Nie należy go jednak zapisywać po przywróceniu ustawień fabrycznych. | 
| device_model_id | 
 Wymagany unikalny identyfikator modelu urządzenia. Kombinacja atrybutów device_model_id i device_id musi zostać wcześniej powiązana przez rejestrację urządzenia. | 
DeviceLocation
Istnieją trzy źródła lokalizacji. Są one używane w taki sposób:
- To urządzenie DeviceLocation, które jest używane głównie na urządzeniach mobilnych z GPS-em .
- Lokalizację podaną przez użytkownika podczas konfiguracji urządzenia określa użytkownik. Ta lokalizacja będzie używana, jeśli nie podasz DeviceLocation.
- Lokalizacja wywnioskowana na podstawie adresu IP. Jest ona używana tylko wtedy, gdy nie określono żadnego z powyższych.
| Pola | |
|---|---|
| coordinates | Długość i szerokość geograficzna urządzenia. | 
DialogStateIn
Zawiera informacje o bieżącym stanie okna dialogowego.
| Pola | |
|---|---|
| conversation_state | 
 
                    Wymagane – to pole musi zawsze zawierać wartość  | 
| language_code | 
 
                    Wymagany język żądania w składni IETF BCP 47 (np. „en-US”). Więcej informacji znajdziesz w artykule Obsługa języków. Jeśli język dla tego urządzenia ( | 
| device_location | Opcjonalne: lokalizacja urządzenia, z którego pochodzi zapytanie. | 
| is_new_conversation | 
 Opcjonalny – jeśli ma wartość true (prawda), serwer potraktuje żądanie jako nową rozmowę i nie użyje stanu z poprzedniego żądania. Ustaw to pole na „true” (prawda), gdy rozmowa ma zostać ponownie uruchomiona, na przykład po ponownym uruchomieniu urządzenia lub gdy upłynęło dużo czasu od poprzedniego zapytania. | 
DialogStateOut
Stan okna spowodowanego zapytaniem użytkownika. Wiele z tych wiadomości może być odbieranych.
| Pola | |
|---|---|
| supplemental_display_text | 
 
                    Tylko dane wyjściowe – dodatkowy tekst wyświetlany przez Asystenta. Może to być ta sama wypowiedź w języku:  | 
| conversation_state | 
 
                    Tylko dane wyjściowe – informacje o stanie dla kolejnego RPC  | 
| microphone_mode | 
                    Tylko dane wyjściowe – określa tryb mikrofonu po przetworzeniu tego wywołania RPC  | 
| volume_percentage | 
 
                    Tylko na wyjściu Zaktualizowano poziom głośności. Wartość będzie wynosić 0 lub jest pomijana (oznacza brak zmian), chyba że rozpoznano polecenie głosowe, np. Zwiększ głośność lub Ustaw głośność 4. W takim przypadku wartość mieści się w zakresie od 1 do 100 (odpowiada nowemu poziomowi głośności od 1% do 100%). Zazwyczaj klient powinien używać tego poziomu głośności podczas odtwarzania danych  | 
MicrophoneMode
Możliwe stany mikrofonu po zakończeniu RPC Assist.
| Wartości w polu enum | |
|---|---|
| MICROPHONE_MODE_UNSPECIFIED | Nie określono trybu. | 
| CLOSE_MICROPHONE | Usługa nie oczekuje od użytkownika kolejnego pytania. Mikrofon powinien pozostać wyłączony, dopóki użytkownik go ponownie nie aktywuje. | 
| DIALOG_FOLLOW_ON | Usługa oczekuje od użytkownika kolejnego pytania. Mikrofon powinien zostać ponownie włączony po zakończeniu odtwarzania elementu AudioOut(przez rozpoczęcie nowego wywołania RPCAssistw celu wysłania nowego dźwięku). | 
ScreenOut
Wizualna odpowiedź Asystenta na zapytanie. Włączona przez usługę screen_out_config.
| Pola | |
|---|---|
| format | Tylko dane wyjściowe – format wyświetlanych danych ekranu. | 
| data | 
 Tylko dane wyjściowe: nieprzetworzone dane ekranu wyświetlane w wyniku zapytania do Asystenta. | 
Format
Możliwe formaty danych ekranu.
| Wartości w polu enum | |
|---|---|
| FORMAT_UNSPECIFIED | Nie określono formatu. | 
| HTML | Dane będą zawierać w pełni sformatowany układ HTML5 zakodowany w UTF-8, np. <html><body><div>...</div></body></html>. Powinien być renderowany razem z odpowiedzią głosową. Pamiętaj, że w danych HTML należy uwzględnić format doctype HTML5. | 
ScreenOutConfig
Określa format, który ma być używany przez serwer przy zwracaniu odpowiedzi screen_out.
| Pola | |
|---|---|
| screen_mode | Bieżący tryb wizualnego ekranu urządzenia podczas wysyłania zapytania. | 
ScreenMode
Możliwe tryby wizualnego wyświetlania ekranu na urządzeniu.
| Wartości w polu enum | |
|---|---|
| SCREEN_MODE_UNSPECIFIED | Nie określono trybu wideo. Asystent może reagować tak, jakby był w trybie OFF. | 
| OFF | Ekran jest wyłączony (lub ma ustawioną tak niską jasność bądź inne ustawienia, że jest niewidoczna). W tym trybie Asystent zazwyczaj nie zwraca odpowiedzi ekranu. | 
| PLAYING | W tym trybie Asystent zwykle zwraca odpowiedź częściowo na ekranie. | 
SpeechRecognitionResult
Szacowana transkrypcja wyrażenia wypowiedzianego przez użytkownika. Może to być pojedynczy segment lub pełne odgadnięcie wypowiedzi użytkownika.
| Pola | |
|---|---|
| transcript | 
 Tylko dane wyjściowe: tekst transkrypcji reprezentujący słowa wypowiedziane przez użytkownika. | 
| stability | 
 
                    Tylko dane wyjściowe – oszacowanie prawdopodobieństwa, że Asystent nie zmieni swojej przypuszczalnej kwestii dotyczącej tego wyniku. Wartości pochodzą z zakresu od 0,0 (całkowicie niestabilny) do 1,0 (całkowicie stabilne i ostateczne). Wartość domyślna (0,0) to wartość wskaźnika, która oznacza, że  | 
