Wie funktioniert ein Chatbot?

Eine Erklärung (fast) ohne Fachbegriffe
MUUUH! GROUP — 30.07.2018

Thema: Insider

Alle sprechen von Chatbots, doch wie funktioniert ein Chatbot? NLU, NLP, Machine Learning, Künstliche Intelligenz sind nur einige der vielen Fachbegriffe, welche das Thema unnötig kompliziert erscheinen lassen. In diesem Artikel erkläre ich anhand des Beispiels „Hey Pizzabot, ich möchte eine Pizza Hawaii zum Heger-Tor-Wall 19 in Osnabrück geliefert bekommen.“ wie Chatbots funktionieren. Dieser Artikel basiert auf dem Conversational Layers Model (CLM), welches die grundsätzliche Funktionsweise von Chatbots beschreibt.

Chatbot Pizza (2)

Wenn ich dem Chatbot meiner Lieblingspizzeria via Facebook Messenger schreibe, dass ich eine Pizza Hawaii geliefert bekommen möchte, ist der Facebook Messenger das Frontend des Bots. Das Frontend schickt meine Nachricht in die Language Understanding Schicht, welche zwei Dinge aus meiner Frage herausließt, meine Intention und eventuelle Zusatzinformationen. Die Fachbegriffe hierfür sind „Intents“ und „Entities“. Der Intent fasst die Intention des Nutzers meistens in einem Wort zusammen. Die Entities sind klassifizierte Informationen die der Nutzer mitgibt. Am Beispiel sieht das folgendermaßen aus: {Intent: Pizzabestellung; Entities: {Sorte: Hawaii; Straße: Heger-Tor-Wall; Hausnummer: 19; Stadt: Osnabrück}}.

 

Chatbot AnatomieDiese Infos gibt die Language Understanding Schicht weiter an das Dialog Management, welches entscheidet was zu tun ist. Bei meiner Pizzabestellung greift es auf das ERP System der Pizzeria zu um zu prüfen, ob alle notwendigen Zutaten auf Lager sind und wie viele Pizzen bereits bestellt wurden um eine Lieferzeit abzuschätzen. Final sendet es der Language Generation Schicht den Auftrag mir zu antworten. Mit den Informationen vom Dialog Management {Bestellung: erfolgreich; Lieferzeit: 45min; Sorte: Hawaii} formuliert die Language Generation Schicht den Satz „Ich habe gute Nachrichten, deine Pizza Hawaii ist in ca. 45 Minuten bei dir.“ und schickt sie zum Frontend.

 

Falls der Pizzabot ein Sprachbot und kein Textbot ist, hat er noch zwei weitere Schichten: Spracherkennung und Sprachsynthese. Zwischen dem Frontend und der Language Understanding Schicht ist  die Spracherkennung (häufig auch Automatic Speech Recognition / ASR gennant) integriert, welche wie ein Gerichtsschreiber arbeitet. Ohne den Text zu interpretieren transkribiert sie die Aussage des Nutzers und gibt den geschriebenen Text in die Language Understanding Schicht. Die Sprachsynthese wandelt die von der Language Generation Schicht formulierten Sätze in gesprochene Audiofiles, die dann im Frontend abgespielt werden.

 

Zugegeben: Das Abstraktionslevel dieses Blogpost war hoch. Für den tieferen Einsteig in die Materie gibt es unser kostenloses Whitepaper „Chatbot Anatomie“, in dem wir erklären wie genau die einzelnen Schichten arbeiten. Der Fokus liegt insbesondere auf der differenzierten Betrachtung von verschiedenen Methoden der künstlichen Intelligenz.

 Download Whitepaper

Marcus Hülsdau

Wenn man Marcus Hülsdau beschreiben will, fällt einem als erstes ein Wort ein: Vielfalt! Mit einem Gesellenbrief von der Handwerkskammer, einem Bachelor im Ingenieurwesen, zwei Mastern im Management und mehr MOOCs als er zählen kann, ist er ein wahrer „Jack of all trades“. Marcus hat in Deutschland und dem europäischen Ausland für verschiedene kleinere Unternehmen im Bereich Medientechnik gearbeitet, für einen Personaldienstleister Kunden akquiriert und für ein Startup Business Development gemacht. Danach hat er in Polen und Großbritannien studiert. Bevor Marcus zu MUUUH! gewechselt ist, war er wissenschaftlicher Mitarbeiter an der Uni Osnabrück. Sein wissenschaftliches Mindset hat er mitgebracht! Er stellt regelmäßig Fragen wie: „Wissen wir das wirklich?“, „Was sind unsere Hypothesen?“ oder „Wie können wir diese Annahme validieren?“.