Shift/CX Experience Marketing Blog

Fachbeiträge, Interviews & Aktuelles zum Customer Experience Management

Die Zukunft der Conversational AI: Herausforderungen und Chancen mit LLM-Integration

image-45744

Auf dem Weg zur Shift/CX Chatbot & Conversational Experiences Konferenz am 25. und 26. September beschäftigt uns einmal mehr der Status Quo der Diskussionen rund um die Optimierung von Chatbot- und Conversational-Projekten. Chatbots, Voicebots und Conversational Interfaces gehören längst zum Standardrepertoire kundenorientierter Schnittstellen. Nicht erst seit ChatGPT, aber durch ChatGPT noch überzeugender; nicht erst seit der Pandemie, aber durch die Pandemie in breiter Akzeptanz eingesetzt; und nicht erst seit Alexa & Co, aber durch Alexa & Co für den Konsumenten erlebbar.

Mit dem Höhenflug der KI-Technologien und insbesondere der generativen KI-Konzepte und Large Language Models (LLMs) hat sich der Entwicklungspfad der Chatbot- und Conversational-AI-Ansätze nochmals grundlegend verändert. Zum einen bieten Sprachmodelle auf der Seite der Intentionserkennung neue Ansätze zur präzisen Bestimmung von Kundenanliegen. Zum anderen ermöglichen LLMs auf der Seite der Antwortgenerierung anstelle umfangreich gestalteter Konversationsflüsse und variantenreich spezifizierter Fragen und Antworten einfache Ansätze zur Generierung menschenverständlicher Inhalte.

Insgesamt eröffnet das Zusammenspiel von Sprachmodellen und CAI-Ansätzen eine Vielzahl neuer Möglichkeiten und ermöglicht einen schnelleren Markteintritt für einfache Konzeptideen. Es ergeben sich aber auch neue Herausforderungen und Problemfelder, die kritisch diskutiert werden müssen. Darüber hinaus stellen sich neue konzeptionelle Fragen, die einer weiteren Klärung bedürfen. In diesem Beitrag versuchen wir, einen aktuellen Überblick über den Status Quo der Diskussionen zu geben und wichtige Fragestellungen herauszuarbeiten, die u.a. im Rahmen der Shift/CX Chatbot & Conversational Experiences Konferenz weiter vertieft werden sollen.

Chatbots & Conversational AI im Zusammenspiel mit Sprachmodellen als neuer Technologiestandard

Das Zusammenspiel von Conversational-Technologien und Sprachmodellen etabliert sich als neuer Technologiestandard, da es die Möglichkeiten der Sprachverarbeitung und Dialogführung erheblich erweitert. In der "Verschmelzung von Conversational und Generative AI" entsteht ein Ansatz, der besser auf Veränderungen und den individuellen Kontext von Nutzeranfragen reagieren kann.

Die Potenziale dieses Zusammenspiels lassen sich gut durch die Unterschiede der beiden Ansätze erklären:

Conversational AI-Konzepte verwenden spezifische maschinelle Lernmodelle für Aufgaben wie die Erkennung von Intentionen oder Entitäten. Diese Systeme sind darauf ausgelegt, Konversationen zu führen, indem sie Muster in Trainingsdaten erkennen und Entscheidungen treffen. Sie sind jedoch häufig auf vordefinierte Aufgaben und Kontexte beschränkt. Generative Sprachmodelle hingegen bieten ein breiteres Sprachverständnis, indem sie große, vielfältige Datensätze und komplexe neuronale Netze nutzen. Sie können ohne spezifische Anpassungen auf eine Vielzahl von Anfragen reagieren und ein tieferes kontextuelles Verständnis entwickeln. Es besteht jedoch die Gefahr von Fehlinterpretationen und "Halluzinationen", bei denen ungenaue oder falsche Informationen generiert werden. (Mehr zu Conversational AI versus Generative AI)

Damit wird klar, dass Conversational AI präziser auf spezifische Anfragen und klar definierte Kontexte reagiert, während generative Modelle mehr Freiheitsgrade bei der Interpretation und Antwortgenerierung bieten. Die Integration von Large Language Models (LLMs) erweitert die Möglichkeiten der Conversational AI, indem sie ein tieferes Verständnis von Sprache und Kontext ermöglicht, das über die vordefinierten Anwendungsbereiche hinausgeht. Dies erlaubt eine individuellere und vielfältigere Reaktion auf Benutzeranfragen.

Dieses Zusammenspiel markiert einen Paradigmenwechsel in der Entwicklung von Chatbots. Statt starrer, vorprogrammierter Dialogstrukturen können moderne Chatbots nun flexibel und kontextsensitiv auf Nutzeranfragen reagieren. Damit eröffnen sich neue Möglichkeiten für personalisierte und dynamische Interaktionen, die bisher nur mit erheblichem Aufwand realisierbar waren. Die Umsetzung von Bot-Konzepten erfordert weniger vordefinierte Szenarien und manuelle Eingriffe, was die Bearbeitung komplexer Anfragen erleichtert und in vielen Fällen überhaupt erst ermöglicht.

Dennoch ist es wichtig, die Ergebnisse der Inhaltsanalyse und -generierung durch generative Modelle kritisch zu hinterfragen. Da diese Modelle Inhalte auf der Basis statistischer Ähnlichkeiten dekodieren und generieren, können die generierten Inhalte fachlich oder inhaltlich ungenau sein. Daher ist es notwendig, die Interaktionen durch zusätzliche Maßnahmen wie Feintuning, spezifisches Prompt Engineering, Anbindung an Wissensdatenbanken oder spezifische Governance-Routinen zu steuern. Diese Maßnahmen helfen, den Kontext der Sprachanalyse und -generierung zu überwachen und die Qualität der generierten Inhalte zu sichern.

Zusammenfassend lässt sich sagen, dass das Zusammenspiel von Conversational AI und Generative AI einen neuen Technologiestandard in der Entwicklung von Chatbots und Conversational Interfaces darstellt. Es ermöglicht die Vereinigung der Stärken beider Ansätze: die präzise und kontextbezogene Verarbeitung von Nutzeranfragen durch CAI und die kreative, flexible Generierung von Inhalten durch GAI. Das Ergebnis ist ein System, das in Breite und Tiefe leistungsfähiger ist und besser auf unterschiedliche Nutzeranforderungen sowie schnell wechselnde Themen eingehen kann. Es erfordert jedoch auch neue Kontrollmechanismen und eine Anpassung des Conversational Design Ansatzes.

Veränderungen der Projektherausforderungen mit der LLM-Integration

Während verschiedene Conversational-Experten wie Sophie Hundertmark vor der Integration von LLMs die Herausforderungen in Conversational-Projekten vor allem in der Verbesserung der Spracherkennungs- und -verarbeitungstechnologien sowie des Kontextverständnisses sahen, um "Nuancen, Mehrdeutigkeiten und Sprachvariationen" besser erkennen und den Kontext einer Konversation besser einordnen zu können, eröffneten generative Modelle wie Large Language Models (LLMs) neue Möglichkeiten.

Diese Modelle tragen dazu bei, einige dieser Herausforderungen zu entschärfen, indem sie ein tieferes Verständnis von Sprache und Kontext ermöglichen. Es bleiben jedoch sowohl alte als auch neue Herausforderungen, die in Projekten aktiv angegangen werden müssen, um Conversational AI über den Hype um ChatGPT und ähnliche Modelle hinaus zu einem effektiven und robusten Kanal für Unternehmen zu machen:

1. Steigende Nutzererwartungen an die Service-Qualität

  • Nutzer erwarten zunehmend eine nahezu perfekte, menschenähnliche Interaktion, die nicht nur einfache Anfragen beantwortet, sondern auch komplexe Kontexte und längere Gesprächshistorien berücksichtigt. Die Fähigkeit, eine konsistente und natürliche Persönlichkeit über verschiedene Interaktionen hinweg zu präsentieren, ist von entscheidender Bedeutung. Ebenso wichtig ist die Anpassungsfähigkeit des LLM innerhalb des Gesprächsflusses, um den spezifischen Bedürfnissen und Erwartungen der Benutzer gerecht zu werden.

2. Komplexität der Systemintegration bei Backend-Systemen und Domain-Knowledge

  • Die nahtlose Integration von konversationeller KI in bestehende Backend-Systeme und domänenspezifisches Wissen stellt eine große Herausforderung dar. Unternehmen müssen sicherstellen, dass ihre Systeme effizient mit LLM interagieren können, um relevante Informationen bereitzustellen und Kundenanfragen präzise zu beantworten. Dies erfordert häufig umfangreiche Anpassungen und eine tiefe Integration mit CRM-Systemen, Datenbanken und anderen Unternehmensplattformen.

3. Kontextualisierung und Personalisierung

  • Eine der Hauptanforderungen ist die Fähigkeit, den Kontext einer Konversation über einen längeren Zeitraum zu erhalten und relevante, personalisierte Antworten zu liefern. Das Konzept der Integration von konversationeller KI und LLM muss in der Lage sein, auf frühere Interaktionen zuzugreifen und diese Informationen in neue Konversationen zu integrieren, um eine personalisierte Benutzererfahrung zu schaffen.

Jetzt für Newsletter registrieren!
Erhaltet jeden Monat wichtige Impulse für Euer CX-Projekt mit unserem Newsletter!

<form data-title="Registrierung" method="post" name="presubmit" class="w-100 emailForm" id="presubmitForm-55224" action="https://register.kongressmedia.de/de/shop/checkout/123/variant:newsletter/schema:freemium/source:blogembed"><div>&lt;input type="hidden" name="new[__referrer][@extension]" value="XmsCrmweb"&gt;&lt;input type="hidden" name="new[__referrer][@controller]" value="Integration"&gt;&lt;input type="hidden" name="new[__referrer][@action]" value="index"&gt;&lt;input type="hidden" name="new[__referrer][arguments]" value="YTowOnt9a68c118f733aac02598a57fd4c8f2031265d2b28"&gt;&lt;input type="hidden" name="new[__referrer][@request]" value="{&amp;quot;@extension&amp;quot;:&amp;quot;XmsCrmweb&amp;quot;,&amp;quot;@controller&amp;quot;:&amp;quot;Integration&amp;quot;,&amp;quot;@action&amp;quot;:&amp;quot;index&amp;quot;}9c6ffb707ff176a4c723c17b2e13a18317e0b2c2"&gt;&lt;input type="hidden" name="new[__trustedProperties]" value="{&amp;quot;email&amp;quot;:1}83e77ca2332066ff54b72bfc42e26d2c5331e5eb"&gt;</div><div class="input-group">&lt;input placeholder="E-Mail" class="form-control w-80" id="email-field" type="email" name="new[email]" required="required"&gt;&lt;input type="submit" value="Anmelden" name="submit" class="btn btn-primary btn-submit" agen="leadgen" gaq="submit" gaq-type="formsubmit"&gt;</div><input type="hidden" name="ehash" value></form>

4. Realisierung der Multi-Modalität

  • Die Fähigkeit, verschiedene Kommunikationsmodi zu integrieren, ist für eine moderne konversationelle KI von entscheidender Bedeutung. Dies beinhaltet die nahtlose Zusammenarbeit zwischen textbasierten Schnittstellen, Sprachsteuerung und anderen Modalitäten. Die Herausforderung besteht darin, eine kohärente Benutzererfahrung zu schaffen, die unabhängig von der verwendeten Modalität konsistent ist.

5. Qualitätskontrolle und Governance

  • Die Qualität der Interaktionen muss ständig überwacht werden. Dies erfordert ein robustes Governance-Framework, das sicherstellt, dass die Antworten der Chatbots nicht nur korrekt, sondern auch fachlich korrekt und ethisch vertretbar sind. Unternehmen müssen Mechanismen implementieren, um die Leistung von LLMs auf der Grundlage von Nutzerfeedback und anderen Metriken zu bewerten und kontinuierlich zu verbessern.

6. Souveräne Fehlerbehandlung bei Halluzinationen

  • Eine besondere Herausforderung ist der souveräne Umgang mit "Halluzinationen", bei denen LLMs falsche Zusammenhänge herstellen und falsche Informationen generieren. Unternehmen müssen Strategien entwickeln, um solche Fehler zu erkennen und zu korrigieren, damit das Vertrauen der Nutzer in die Technologie erhalten bleibt. Dies erfordert ein effektives Fehlermanagementsystem, das in Echtzeit reagiert und die Nutzer über potenzielle Inkonsistenzen informiert.

7. Multikanal-Interaktion

  • Die Fähigkeit, eine konsistente Nutzererfahrung über verschiedene Kommunikationskanäle hinweg zu bieten, bleibt eine zentrale Herausforderung. Unternehmen müssen sicherstellen, dass Interaktionen über Plattformen wie Web-Chat, Messaging-Anwendungen oder Sprachschnittstellen nahtlos und konsistent sind. Dies erfordert eine gut durchdachte Strategie und flexible Systeme, die an unterschiedliche Nutzungskontexte angepasst werden können.

Fazit

Die Integration von Large Language Models (LLMs) in Conversational AI hat das Potenzial, die Art und Weise, wie Unternehmen mit ihren Kunden interagieren, grundlegend zu verändern und steht daher gerade hoch im Kurs. Die Entwicklungen machen aber auch deutlich, dass die Weiterentwicklung von Chatbots und Conversational AI weit über den aktuellen Hype hinausgeht. Unternehmen müssen strategisch vorgehen, um diese Technologien erfolgreich zu implementieren und die damit verbundenen Herausforderungen zu meistern. Dabei sind eine kontinuierliche Anpassung und Verbesserung unerlässlich, um eine hochwertige Benutzererfahrung zu gewährleisten und das Vertrauen der Nutzer zu gewinnen.

Um diese Entwicklungen weiter zu vertiefen und gemeinsam über die Herausforderungen und Lösungsansätze zu diskutieren, laden wir herzlich zur Shift/CX Chatbot & Conversational Experiences Konferenz am 25. und 26. September ein. Diskutiert mit unseren Experten und Praktikern über Projekterfahrungen und aktuelle Trends und Herausforderungen.

Registriert Euch jetzt mit dem Aktionscode "CAD3287" und erhaltet die Live-Teilnahme (im Lite-Ticket) kostenlos bzw. reduziert das Premium-Ticket (inkl. Mitschnitte & Unterlagen) um 99 EUR!

 

Jetzt kostenlos für Freemium-Zugang zur Shift/CX-Plattform registrieren!

  • Zugang zu Freemium-Inhalten der Mediathek
  • Drei Credits für Freischaltung von Premium-Inhalten
  • Monatlicher Content-Newsletter mit Premium-Inhalten
  • Zugang zu geschlossener Linkedin-Gruppe
  • Besondere Plattform-Angebote über Shift/CX Updates
  • Kostenlos für immer!