Vor kurzem haben wir intern einen Workshop zum Thema “AI-basierte Chatbots” durchgeführt. Das Ziel war, tiefer in das Thema einzutauchen und gleichzeitig unseren Mitarbeitenden anhand von einem AI-basierten Chatbot die Arbeit zu erleichtern und die Effizienz zu steigern.
Wir unterscheiden zwischen zwei Arten von Chatbots: Der Intent-Flow-Chatbot und der AI-Chatbot.
Der Intent-Flow-Chatbot agiert wie ein freundlichen Reiseführer, der dabei hilft, die Ziele des fragenden Anwenders effizient zu erreichen. Er funktioniert, wie ein gut organisiertes Entscheidungsdiagramm, identifiziert Schlüsselwörter oder Phrasen und navigiert entlang eines vordefinierten Pfades, um passende Antworten zu liefern - vergleichbar mit einer Fahrt auf einer festgelegten Route.
Der AI-Chatbot verhält sich hingegen wie ein intelligenter Assistent, der bemüht ist, die Bedürfnisse des Nutzers tiefgehend zu verstehen und umfassend zu unterstützen. Er lernt kontinuierlich aus den Interaktionen mit den Nutzern, wendet komplexe Algorithmen an, um den Kontext der Fragen zu erfassen und bietet personalisierte Antworten. Er kann auch feine Nuancen in der Sprache erkennen und sich entsprechend anpassen, ähnlich wie ein erfahrener Dolmetscher.
Zusammenfassend basieren Intent-Flow-Chatbots auf vorprogrammierten Pfaden und nutzen spezifische Schlüsselwörter zum Generieren von Antworten. AI-Chatbots reagieren hingegen durch maschinelles Lernen und natürliche Sprachverarbeitung dynamisch auf die Bedürfnisse und machen ein natürlicheres Gesprächserlebnis möglich.
Unser Ziel war klar: Wir wollten einen intelligenten Chatbot entwickeln, der unseren Mitarbeitenden und Auditoren schnellen Zugang zu Informationen bietet und dafür auf unser Intranet zugreift. Der AI-Chatbot sollte das Intranet auf Basis von Confluence als Informationsquelle nutzen und mit Gemini Pro, Googles neuem Modell, eine interaktive Komponente im Chat generieren.
Dafür tauchten wir tief in die Welt der Retrieval Augmented Generation (RAG) und Large Language Models (LLM) ein.
Retrieval Augmented Generation (RAG): Die Retrieval Augmented Generation nutzt aktuelle oder firmenspezifische Informationen aus einer Wissensdatenbank. Im Unterschied zu klassischen Methoden ermöglicht eine semantische Suche das themenspezifische Auffinden von Informationen, auch ohne den exakten Suchbegriff zu kennen. Dadurch kann nach relevanten Informationen gesucht werden, ohne selbst genau zu wissen, wonach man sucht.
Large Language Models (LLM): Ein Large Language Models (LLM) ist ein fortschrittliches KI-Programm, das mit riesigen Datenmengen trainiert wird, um Sprache zu verstehen und zu erzeugen. Diese Technologie ermöglicht es, Texte zu verfassen, Sprache zu übersetzen und Fragen zu beantworten.
Die Entscheidung, Confluence als primäre Informationsquelle zu nutzen, hat sich als vorteilhaft erwiesen. Der entwickelte Chatbot bezieht aktuelle Informationen direkt aus unserem Intranet Confluence, was den Zugriff auf Antworten aus den zugehörigen Quellen für alle Mitarbeitenden, Neuzugänge und externe Audit-Stellen schnell und unkompliziert macht.
Mitarbeitende können nun effizient und zielgerichtet Informationen abrufen. Diese Neuerung hat das Onboarding und interne Schulungen vereinfacht sowie den Kommunikationsaufwand signifikant reduziert.
Neben dem internen Einsatz sehen wir eine Reihe weiterer Anwendungsmöglichkeiten für AI-basierte Chatbots:
Das starke Interesse und die positive Rückmeldung zum Workshop haben uns bestätigt, dass AI-basierte Chatbots eine effektive Möglichkeit sind, Arbeitsabläufe zu verbessern.
Das Potenzial, das sich durch die Weiterentwicklung dieser Technologien eröffnen, hat uns begeistert. Die nächsten Schritte zur Integration weiterer Funktionalitäten sind bereits in Planung.