Wie funktioniert ein Chatbot?

Eine Erklärung (fast) ohne Fachbegriffe

Eine Pizza mit Laptop und Cola

Wenn ich dem Chatbot meiner Lieblingspizzeria via Facebook Messenger schreibe, dass ich eine Pizza Hawaii geliefert bekommen möchte, ist der Facebook Messenger das Frontend des Bots. Das Frontend schickt meine Nachricht in die Language Understanding Schicht, welche zwei Dinge aus meiner Frage herausließt, meine Intention und eventuelle Zusatzinformationen. Die Fachbegriffe hierfür sind „Intents“ und „Entities“. Der Intent fasst die Intention des Nutzers meistens in einem Wort zusammen. Die Entities sind klassifizierte Informationen die der Nutzer mitgibt. Am Beispiel sieht das folgendermaßen aus: {Intent: Pizzabestellung; Entities: {Sorte: Hawaii; Straße: Heger-Tor-Wall; Hausnummer: 19; Stadt: Osnabrück}}.

Diese Infos gibt die Language Understanding Schicht weiter an das Dialog Management, welches entscheidet was zu tun ist. Bei meiner Pizzabestellung greift es auf das ERP System der Pizzeria zu um zu prüfen, ob alle notwendigen Zutaten auf Lager sind und wie viele Pizzen bereits bestellt wurden um eine Lieferzeit abzuschätzen. Final sendet es der Language Generation Schicht den Auftrag mir zu antworten. Mit den Informationen vom Dialog Management {Bestellung: erfolgreich; Lieferzeit: 45min; Sorte: Hawaii} formuliert die Language Generation Schicht den Satz „Ich habe gute Nachrichten, deine Pizza Hawaii ist in ca. 45 Minuten bei dir.“ und schickt sie zum Frontend.

Eine Infografik zum Chatbot Dialog

Falls der Pizzabot ein Sprachbot und kein Textbot ist, hat er noch zwei weitere Schichten: Spracherkennung und Sprachsynthese. Zwischen dem Frontend und der Language Understanding Schicht ist  die Spracherkennung (häufig auch Automatic Speech Recognition / ASR gennant) integriert, welche wie ein Gerichtsschreiber arbeitet. Ohne den Text zu interpretieren transkribiert sie die Aussage des Nutzers und gibt den geschriebenen Text in die Language Understanding Schicht. Die Sprachsynthese wandelt die von der Language Generation Schicht formulierten Sätze in gesprochene Audiofiles, die dann im Frontend abgespielt werden.

Zugegeben: Das Abstraktionslevel dieses Blogpost war hoch. Für den tieferen Einsteig in die Materie gibt es unser kostenloses Whitepaper „Chatbot Anatomie“, in dem wir erklären wie genau die einzelnen Schichten arbeiten. Der Fokus liegt insbesondere auf der differenzierten Betrachtung von verschiedenen Methoden der künstlichen Intelligenz.

 

Whitepaper herunterladen

Whitepaper downloaden

CHATBOT ANATOMIE

In unserem Whitepaper erklären wir anhand unseres Conversational-Layer-Models wie Chatbots technisch funktionieren und beantworten unter anderem die Fragen:

  • Warum braucht Siri immer eine Internetverbindung?
  • Was ist Natural Language Understanding und wie funktioniert es?
  • Wann braucht ein Chatbot Machine Learning? Und was ist das überhaupt?
  • Wie bringt man einem Chatbot das Sprechen bei?

Downloaden Sie jetzt unser Whitepaper, um auch beim Thema „Chatbot Anatomie“ kompetent mitdiskutieren zu können.

Ansprechpartner

Marcus Hülsdau

Data Scientist
Wenn man Marcus Hülsdau beschreiben will, fällt einem als erstes ein Wort ein: Vielfalt! Mit einem Gesellenbrief von der Handwerkskammer,...
Mehr über Marcus Hülsdau
Portrait Marcus Hülsdau
Wir schaffen digitale Interaktionen mit innovativen Technologien.
Mehr MUUUH! Next