
Nachgefragt bei Harald Henn: Was macht Agentic AI im Kundenservice?
Stand: 27.05.2025 16:10 Uhr
Agentic AI steht kurz davor, den Kundenservice tiefgreifend zu verändern und die Interaktion zwischen Unternehmen und Kunden grundlegend umzugestalten. Denn während Chatbots nur reagieren, kann Agentic AI agieren. Was bedeutet das im Kundenservice?
Agentic AI bezeichnet autonome AI-Systeme, die eigenständig handeln, Entscheidungen treffen und komplexe Aufgaben ausführen können – und zwar ohne konstante menschliche Anweisung. Während klassische Chatbots hauptsächlich auf vordefinierten Skripten basieren und lediglich reaktiv auf Eingaben antworten, geht Agentic AI weit darüber hinaus. Diese autonomen AI-Systeme können nicht nur mit Kunden in Echtzeit kommunizieren, sondern auch Sprachbarrieren durch Echtzeitübersetzungen überwinden und sogar untereinander Informationen austauschen.
Allerdings birgt diese Technologie auch Risiken: Große Sprachmodelle (LLMs), die den Kern von Agentic AI-Systemen bilden, können Fehler und Halluzinationen produzieren, was zu völlig falschen Kundeninteraktionen führen kann.
Viele Möglichkeiten, viele Aufgaben
Ein wesentlicher Vorteil von Agentic AI liegt in ihrer Fähigkeit, Kommunikation und Angebote in Echtzeit an individuelle Kundenbedürfnisse anzupassen. Anders als herkömmliche Automatisierungslösungen kann Agentic AI nuancierte Kundenanfragen über längere Interaktionen hinweg verstehen und darauf reagieren. Ein so genannter AI-Agent kann im Kundenservice kann im Ergebnis nicht nur
Agentic AI verarbeitet dazu multimodale Eingaben, also Text, Sprache, Bilder, Daten und Videos und nutzt fortschrittliche kognitive Schichten wie semantisches, episodisches und prozedurales Gedächtnis, um Aktionen an die jeweilige Situation anzupassen.
Vorsicht vor Fehlentscheidungen und Halluzinationen
Doch trotz – oder gerade wegen – der vielversprechenden Anwendungsmöglichkeiten birgt Agentic AI im Kundenservice Risiken, die Unternehmen vor der Implementierung sorgfältig abwägen sollten. Denn die zunehmende Autonomie dieser Systeme verstärkt bestehende Herausforderungen und schafft gleichzeitig neue Problem. Large Language Models (LLMs), die den Kern von Agentic AI-Systemen bilden, sind anfällig für sogenannte Halluzinationen – das Generieren falscher Informationen, die überzeugend präsentiert werden. Die Auswirkungen solcher Fehlinformationen können erheblich sein, insbesondere wenn die generierten Inhalte als vertrauenswürdig betrachtet werde. In kritischen Anwendungsbereichen wie Medizin, Recht oder Forschung können diese Fehldarstellungen zu folgenreichen Fehlentscheidungen führen.
Besonders problematisch ist, dass die Autonomie von Agentic AI bestehende Risiken verstärken kann. Beispiele hierfür sind:
Wer übernimmt die Verantwortung?
Diese Fehlentscheidungen werfen daher grundlegende ethische Fragen hinsichtlich der Verantwortlichkeit auf, wenn die bereitgestellten Informationen irreführend oder schädlich sind. Wer ist daher verantwortlich für falsche Entscheidungen und entstandene Schäden – der Entwickler, das Unternehmen oder das KI-System selbst? Der Mensch muss daher als zentrale Kontrollinstanz bestehen bleiben, unterstützt durch klare Governance-Richtlinien und kontinuierliches Monitoring.
Autor:

Harald Henn
Geschäftsführer
Marketing Resultant GmbH
Harald Henn ist Geschäftsführer der Marketing Resultant GmbH in Mainz. Er versteht sich als Navigator für den digitalen Customer Service, optimiert Geschäftsprozesse in Vertrieb, Service, Marketing mit Lean Management-Methoden und bietet Best Practice Beratung für Call Center und CRM-Projekte.