Skip to content

Zeitgewinne realisieren und Alltagsaufgaben automatisieren mit Kinetiqa AI-Bots

Wir entwickeln Schnittstellen zu KI-Technologie für Content-Management-Systeme oder Frameworks wie NEXT.JS und Symfony.

  • Generative AI und LLM nutzen
  • Lösungen für Kommunen
  • Individuelle Betreuung
  • Open2C-Integration
Die Herausforderung

Es gibt viele Gründe, warum sich die Kundenbedürfnisse seit Beginn der Digitalisierung einhergehend mit den wachsenden Angeboten und Möglichkeiten stark verändert haben. Beispielsweise der bequeme Zugriff auf Dienstleistungen rund um die Uhr, personalisiert an den Vorlieben und Interessen, Vergleichbarkeit von Preisen, Austausch mit anderen Kunden über Bewertungen, besondere Einkaufserlebnisse (AR & VR).

Der Anspruch
Das Versprechen, jederzeit und schnell Antworten auf die je eigenen Anliegen zu bekommen, soll bei jeder Interaktion mit digitalen und Echt-Welt-Dienstleistungen eingelöst werden können.

Optimaler Kundenservice soll schnell sein, kompetent und korrekte Aussagen liefern. Natürlich stets freundlich, rund um die Uhr und in der Sprache des Kunden. Ein hehrer Anspruch, aber praktisch von einzelnen Mitarbeiter:innen nicht mehr zu leisten.

Ein wertvoller Mitarbeiter
Hier gehen wir mit einem KI-Assistenten zur Hand: mit geeigneter Einrichtung und auf Ihren Anwendungsfall zugeschnittenem Training erhalten Sie einen ersten Ansprechpartner für Ihre Kund:innen sowie einen  wertvollen Zuarbeiter für Ihr Personal.

Lösungen

Wer Supportleistungen bietet und im Kundenkontakt steht, greift seit jeher auf eine Vielzahl von Tools zu, die möglichst in Echtzeit den Zugriff auf relevante Informationen ermöglichen. KI-Assistenten erweitern die Möglichkeiten nicht grundlegend, aber bieten deutlich komfortablere und direktere Wege zur benötigten Auskunft.

Bots für die Supporter
Support-Mitarbeiter:innen erhalten zielführende Abkürzungen, um im Gespräch schneller und flexibler reagieren zu können. Anstatt sich mühsam durch Dialoge und Auswahllisten zu navigieren, bieten KI-Assistenten gezielte Auskünfte und Dokumentenverweise als Stichwortgeber für das Kundengespräch.

Chatbots
Viele Auskunftsersuchen ähneln sich, die nachgefragten Themen sind gleich, die Leitungen der Mitarbeiter:innen sind ständig belegt? Hier springt der KI-Chatbot ein und entlastet die Supporthotline.
Geduldig und höflich beantwortet er Fragen und erteilt Auskünfte, blitzschnell präsentiert er relevante Dokumente, und wenn er mal nicht weiter weiß, kann er immer noch an seine menschlichen Kolleg:innen durchstellen.

Sprachmodelle / Large Language Models (LLM)

Sprachmodelle, insbesondere große Sprachmodelle (LLMs), sind wie digitale Bibliotheken voller Bücher, Artikel und Websites, die verstehen, was du sagst oder fragst, und in menschlicher Sprache antworten können. Stell dir vor, du könntest mit dem klügsten Buch plaudern, das alles gelesen hat – das ist im Grunde, was ein Sprachmodell macht. Es lernt aus einer riesigen Menge an Texten, um Muster in Sprache zu erkennen und sinnvolle Antworten zu generieren.

Wie trainiert man eine KI?

Das Trainieren einer KI ähnelt dem Unterrichten eines Kindes, aber statt Büchern und Unterricht nutzt man Daten und Beispiele. Man gibt der KI viele Beispiele dafür, was man von ihr möchte, wie z.B. Bilder von Katzen, wenn man möchte, dass sie Katzen erkennt. Die KI analysiert diese Beispiele und lernt, Muster und Merkmale zu erkennen. Je mehr Daten sie bekommt, desto besser wird sie im Erkennen und Vorhersagen. Dieser Prozess benötigt leistungsstarke Computer und viel Zeit, um die KI „schlau“ zu machen.

RAG – Retrieval Augmented Generation

RAG kombiniert das Beste aus zwei Welten: es ist ein Ansatz, bei dem das vorhandene trainierte Wissen des Sprachmodells um eine externe Wissensbasis erweitert wird, so dass die Ergebnisse spezifisch auf einen Anwendungsfall optimiert werden können und dabei aktuell und relevant sind. Statt mit einem fest hinterlegten Wissen zum Stichtag X zu arbeiten, können auch aktuelle Informationen berücksichtigt werden.

Typische Herausforderungen

  • Halluzinieren: Manchmal denkt die KI sich Dinge aus, die nicht stimmen oder keinen Sinn machen. Es ist, als würde sie träumen oder fantasieren.
  • Lost-in-the-Middle: Bei langen Gesprächen oder Texten kann die KI den Überblick verlieren und vergessen, worüber sie spricht. Das ist so, als würde sie sich in der Mitte einer Geschichte verlaufen.
  • Andere Herausforderungen: Dazu gehören Vorurteile in den Trainingsdaten, Schwierigkeiten beim Verstehen von Sarkasmus oder sehr spezifischen Fachjargons. Die Wissensbasis kann veralten (siehe „RAG“) oder unerwünschte, nicht autoritative Quellen werden benutzt.

KI vs Maschinelles Lernen

Künstliche Intelligenz (KI) ist der große Überbegriff für Maschinen, die menschenähnliche Aufgaben erledigen können, wie z.B. das Verstehen oder Generieren von Sprache, das Erkennen von Bildern oder das Treffen von Entscheidungen. Maschinenlernen ist ein Bereich innerhalb der KI, der sich darauf konzentriert, Maschinen zu „lehren“, aus Daten zu lernen und sich zu verbessern. Während KI das breite Ziel hat, intelligente Maschinen zu schaffen, geht es beim Maschinenlernen spezifisch darum, wie man diese Intelligenz durch Lernen aus Daten erreicht.

Datenhoheit behalten

Ein typisches Phänomen bei der Einführung neuer Technologien: man gibt Kompetenzen und Daten an Dritte ab, so dass die eigenen Geschäftsprozesse mittelfristig in ungewünschte Abhängigkeiten rutschen oder gar gesetzliche Beschränkungen im Umgang mit Kundendaten verletzt werden.

Dem gilt es gegenzusteuern, indem Prozesse und Daten weitgehend in der eigenen, ggf. gemieteten Infrastruktur verarbeitet und erst zum spätestmöglichen Zeitpunkt an Drittanbieter abgetreten werden. Insbesondere die Konzepte der Verkettung (engl. chaining) von Diensten und des Semantic Routing eröffnen hier Potential, Herr im eigenen Haus zu bleiben.

An den Anfang scrollen