Działania konwersacyjne zostaną wycofane 13 czerwca 2023 r. Więcej informacji znajdziesz w artykule o zachodzie słońca między rozmowami.

Akcje dotyczące rozmów

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Dzięki czynnościom konwersacyjnym możesz rozszerzyć Asystenta Google o własne interfejsy rozmowy, które dają użytkownikom dostęp do Twoich produktów i usług. Działania wykorzystują zaawansowany mechanizm rozumienia języka naturalnego Asystenta (NLU), by przetwarzać i rozumieć język wprowadzany w języku naturalnym i wykonywać zadania na podstawie tych danych.

Omówienie

Akcja rozmowy to prosty obiekt definiujący punkt wejścia do rozmowy (nazywany wywołaniem):

  • Wywołanie określa, jak użytkownicy informują Asystenta, że mogą rozpocząć rozmowę z jednym z Twoich działań. Wywołanie działania jest określane przez pojedynczy zamiar, który zostanie dopasowany, gdy użytkownicy zażądają działania.
  • Rozmowa określa, jak użytkownicy wchodzą w interakcję z wywołaną akcją. Rozmowy możesz tworzyć za pomocą zamiarów, typów, scen i potwierdzeń.
  • Oprócz tego Twoje działania mogą przekazywać dodatkowe zadania do realizacji, czyli usług internetowych komunikujących się z działaniami za pomocą webhooków. Ta funkcja pozwala między innymi na weryfikację danych, wywoływanie innych usług internetowych i wykonywanie logiki biznesowej.

Łączysz co najmniej jedną akcję na podstawie przypadków użycia, które są ważne dla Twoich użytkowników, do logicznego kontenera zwanego projektem Actions. Projekt Actions zawiera cały model wywołania (zbiór wszystkich wywołań), który umożliwia użytkownikom rozpoczęcie od logicznego miejsca w modelu rozmowy (czyli wszystkich możliwych odpowiedzi użytkowników i wszystkich możliwych sposobów odpowiadania użytkownikom).

Rysunek 1. Zbiór działań, które służą jako punkty wejścia do modelu rozmowy. Intencje, które kwalifikują się do wywoływania, są uważane za globalne.

Wywołanie

Wywołanie jest powiązane z wyświetlaną nazwą, która reprezentuje markę, nazwę lub profil klienta, co pozwala użytkownikom poprosić Asystenta o wywołanie akcji. Użytkownicy mogą używać tej nazwy wyświetlanej samodzielnie (nazywanej przez główne wywołanie) lub w połączeniu z opcjonalnymi wyrażeniami precyzyjnych linków.

Użytkownicy mogą na przykład używać tych wyrażeń do wywoływania 3 osobnych działań w projekcie o wyświetlanej nazwie „Fakty o Google”:

  • „OK Google, ciekawostki o Google”
  • „OK Google, porozmawiaj z Google na temat informacji, aby poznać fakty o firmie”
  • „OK Google, porozmawiaj z Tobą o faktach, aby poznać fakty historyczne”

Pierwsze wywołanie w przykładzie to główne wywołanie. To wywołanie jest powiązane ze specjalną intencją systemu o nazwie actions.intent.MAIN. Drugi i trzeci wywołania to precyzyjne linki, które pozwalają określić dodatkowe wyrażenia, które pozwalają użytkownikom pytać o konkretne funkcje. Te wywołania odpowiadają intencjom użytkowników, które zostały przez Ciebie oznaczone jako globalne. Każde wywołanie w tym przykładzie stanowi punkt początkowy rozmowy i odpowiada pojedynczemu działaniu.

Rysunek 2. Przykład wywołania głównego

Ilustracja 2 opisuje typowy główny proces wywołania:

  1. Gdy użytkownicy proszą o działanie, zazwyczaj proszą o nią Asystenta, używając Twojej wyświetlanej nazwy.
  2. Asystent dopasowuje żądanie użytkownika do odpowiedniej intencji, która pasuje do żądania. W tym przypadku będzie to actions.intent.MAIN.
  3. Akcja jest powiadamiana o dopasowaniu intencji i odpowiada na wyświetlenie prośby o rozpoczęcie rozmowy z użytkownikiem.

Rozmowa

Rozmowa określa, w jaki sposób użytkownicy wchodzą w interakcję z działaniem po jego wywołaniu. Kompilowanie tych interakcji odbywa się poprzez zdefiniowanie danych wejściowych użytkownika dla rozmowy, logikę przetwarzania tych danych oraz odpowiednie komunikaty z prośbą o odpowiedź użytkownika. Poniższa ilustracja i wyjaśnienie wyjaśnia, jak przebiega typowy przebieg rozmowy z elementami składowymi rozmowy: zamiar, typ, scenę i potwierdzenie.

Ilustracja 3. Przykład rozmowy

Ilustracja 3 opisuje typowy przebieg rozmowy:

  1. Gdy użytkownik powie coś, aplikacja NLU Asystenta dopasowuje dane wejściowe do właściwej intencji. Intencja jest dopasowywana, jeśli model języka dla danego zamiaru jest zbliżony lub bardzo zbliżony do danych wejściowych użytkownika. Model języka definiujesz przez wyrażenia na potrzeby trenowania lub przykłady wypowiedzi użytkowników. Asystent bierze te wyrażenia na potrzeby trenowania i rozwija je, aby utworzyć model języka intencji.
  2. Gdy identyfikator NLU Asystenta pasuje do intencji, może wyodrębniać potrzebne Ci parametry z danych wejściowych. Z tymi parametrami powiązane są typy, takie jak data lub liczba. Dodaj adnotacje do określonych części wyrażeń treningowych intencji, aby określić parametry, które chcesz wyodrębnić.
  3. Następnie scena przetwarza pasującą intencję. Sceny można wyobrazić sobie jako logicznych wykonawców akcji, wykonując najtrudniejsze zadania logiczne niezbędne do prowadzenia rozmowy. Sceny są odtwarzane w pętli, co zapewnia elastyczny cykl życia, dzięki któremu możesz między innymi weryfikować parametry intencji, wypełniać przedziały i wysyłać użytkownikowi żądania.
  4. Po wykonaniu sceny zwykle użytkownik otrzymuje prośbę o kontynuowanie rozmowy lub może ją zakończyć w razie potrzeby.

realizację,

Podczas wywołania lub rozmowy akcja może aktywować webhooka powiadamiającego usługę realizacji o wykonaniu niektórych zadań.

Ilustracja 4. Przykład rozmowy

Ilustracja 4. przedstawia sposoby wykorzystania realizacji w celu generowania zapytań. Jest to typowy sposób wykorzystania realizacji:

  1. W określonych punktach wykonania działania może on wywołać webhooka, który wysyła żądanie do zarejestrowanego modułu obsługi webhooka (usługi realizacji zamówień) z ładunkiem JSON.
  2. Twoja realizacja przetwarza żądanie, np. wywołuje interfejs API REST, aby wyszukać niektóre dane lub zweryfikować niektóre dane z ładunku JSON. Bardzo powszechnym sposobem realizacji zamówień jest generowanie dynamicznych komunikatów w czasie działania, dzięki którym Twoje rozmowy są lepiej dostosowane do bieżącego użytkownika.
  3. Twoja realizacja zwraca odpowiedź na działanie zawierającą ładunek JSON. Może używać danych z ładunku, aby kontynuować wykonanie zadania i odpowiedzieć użytkownikowi.