Hinter Zammad liegen intensive Monate, in denen die ersten KI-Funktionen Form angenommen haben. Was im letzten Interview noch als Konzept beschrieben wurde, ist inzwischen getestet, verfeinert und anhand praktischer Erkenntnisse weiterentwickelt worden. Ein guter Moment also, um mit Product Owner Gerrit Daute über Fortschritte, Herausforderungen und die nächsten Schritte zu sprechen.
Gerrit, wo steht Zammad aktuell bei der Entwicklung der KI-Funktionen? Hat sich seit unserem letzten Gespräch etwas Grundlegendes verändert?
Die Prioritäten sind im Kern gleich geblieben. Unser Bild vom fertigen Produkt ist jedoch deutlich klarer geworden. Wir wissen heute sehr genau, wie das KI-Release Zammad 7.0 aussehen soll. Dabei halten wir an dem Leitgedanken fest, den wir damals skizziert haben. Wir entwickeln KI-Funktionen, die Agenten unterstützen – nicht ersetzen.
Die ersten Funktionen stehen fest. Dazu gehören automatische Ticket-Zusammenfassungen, eine sichere Text-Assistenz sowie erste KI-Agenten, die einfache, wiederkehrende Aufgaben übernehmen, wie Priorisieren, Kategorisieren und Zuweisen. Funktionen, die nicht spektakulär klingen, aber im Alltag einen enormen Unterschied machen.
All diese Bausteine zahlen auf ein Ziel ein: Agenten entlasten, ohne ihnen die Kontrolle zu entziehen oder Entscheidungen an eine Blackbox auszulagern. Und genau das macht KI im Kundensupport überhaupt erst sinnvoll.
📘Erstes Interview zum Nachlesen
Im ersten Gespräch erläutert unser Product Owner, wie Zammads KI-Strategie entstanden ist und welche Leitgedanken sie geprägt haben.
Welche dieser Funktionen haben sich als technisch anspruchsvoller herausgestellt als erwartet?
Überraschenderweise waren es nicht die Funktionen selbst, sondern die Umgebung, in der sie ausgeführt werden sollen. Große KI-Modelle liefern in der Regel schnell gute Ergebnisse – das kennen die meisten aus der privaten Nutzung von beispielsweise ChatGPT. Die Herausforderung entsteht erst dort, wo man dieselbe Qualität von deutlich kleineren Modellen erwartet.
Und genau das ist für uns zentral, denn wir wollen Zammad-Nutzern die Möglichkeit bieten, ihre eigenen KI-Server zu betreiben, ohne ihre sensiblen Daten an große Cloudanbieter schicken zu müssen.
Kleinere Modelle sind jedoch deutlich empfindlicher. Sie reagieren auf jede Ungenauigkeit im Prompt, verlieren schneller den Kontext und liefern eher Fehler. Daher mussten wir lernen, Prompts so zu formulieren, dass sie alle möglichen Inhalte aus allen Branchen und Anwendungsfällen konsistent verarbeiten.
Der größte Aufwand lag daher nicht in der Entwicklung der Funktionen selbst, sondern im Feintuning: Prompts testen, umformulieren, verwerfen, neu denken. Dieser Prozess hat uns deutlich länger beschäftigt als die reine technische Umsetzung.
In Beta-Tests wurden die KI-Funktionen erprobt. Wie ist das Feedback ausgefallen?
Sehr positiv, aber auch sehr aufschlussreich. Die Ticket-Zusammenfassungen haben besonders viel Lob von unseren Beta-Testern erhalten. Zugleich wurde uns bewusst, wie hoch die Erwartungen an KI inzwischen sind. Und wie weit sie auseinandergehen – von einfachen Assistenzfunktionen bis hin zu vollautomatisiertem Support.
Besonders gefreut hat uns, dass es sehr viel Zustimmung gab, sobald wir erklärt haben, warum wir bewusst noch nicht vollautomatisieren und stattdessen assistierende Funktionen entwickeln. Viele Menschen haben inzwischen erlebt, wie es ist, wenn KI völlig am Kunden vorbeantwortet. Unser Ansatz, die Agenten bewusst im Zentrum zu lassen, hat deshalb viel Zuspruch bekommen.
Wie sammelt und messt ihr das Feedback zu den einzelnen Funktionen?
Am Anfang hatten wir vor allem subjektive Rückmeldungen der Beta-Tester erhalten. Wir haben jedoch schnell erkannt, dass dies nicht ausreicht – wir benötigen messbare Qualitätsmetriken. Deshalb haben wir während der Beta-Phase eine Funktion vorgezogen, die eigentlich erst später geplant war: einen direkten Feedback-Mechanismus in der Benutzeroberfläche.
Tester können den KI-Output nun mit einem Daumen hoch oder runter bewerten. Bei einer negativen Bewertung haben sie zusätzlich die Möglichkeit, kurz zu kommentieren, woran es lag. So erhalten wir neben der Bewertung der Funktion auch den entsprechenden Kontext.
Das hilft uns enorm. Wir sehen, welche Prompts gut funktionieren, welche nachgebessert werden müssen und wann eine Funktion so stabil ist, dass wir sie veröffentlichen können. Und das wird auch den Zammad-Admins helfen, die z.B. bei den Text-Assistenten eigene Prompts schreiben können.
Gibt es bestimmte Branchen oder Anwendungsfälle, die besonders von KI profitieren?
Es kommt weniger auf die Branche als auf die Abläufe an. Überall dort, wo Supportprozesse komplexer werden, zeigt KI einen besonders hohen Nutzen. Je nach Aufgabenlage profitieren unterschiedliche Teams von Effizienzsteigerungen, Qualitätsverbesserungen oder mehr Sicherheit.
Ticket-Zusammenfassungen entfalten ihren Wert beispielsweise besonders in Teams, in denen Vorgänge häufig die Abteilung wechseln oder über einen längeren Zeitraum laufen. Das erspart den Agenten eine Menge Kontextarbeit.
Beim automatischen Dispatching sieht man einen ähnlichen Effekt. Unternehmen mit zentralen Info- oder Support-Adressen gewinnen sehr viel Zeit, wenn Tickets automatisch und zuverlässig an die richtige Stelle weitergeleitet werden.
Ähnlich sieht es bei Organisationen mit hohem Ticketaufkommen aus. Eine automatische Priorisierung entlastet die Teams spürbar und sorgt dafür, dass wichtige Fälle schneller sichtbar werden.
Und quer durch alle Branchen hinweg löst KI ein weiteres, oft unterschätztes Problem: Schatten-IT. Sobald wir den Agenten in Zammad ein sicheres, internes Text-Tool anbieten, gibt es keinen Grund mehr, private ChatGPT-Accounts für berufliche Inhalte zu nutzen.
Wenn wir das sauber in Zammad abbilden, profitieren wirklich alle Organisationen, unabhängig von der Branche.
🌒 Mehr zum Thema Schatten-KI
Viele Teams greifen mangels interner Lösungen zu privaten KI-Diensten. Was das bedeutet und wie man gegensteuert, lesen Sie hier: Schatten-KI im Unternehmen richtig begegnen
Wie funktioniert das mit der freien Modell-Wahl konkret?
Sehr einfach. SaaS-Kunden können die KI direkt in Zammad aktivieren, ohne dass sie zusätzliche Infrastruktur benötigen. On-Premise-Nutzer können entweder unseren gehosteten KI-Dienst per API-Key anbinden oder – wenn sie volle Kontrolle bevorzugen – einen eigenen KI-Server betreiben und über die vorhandenen Schnittstellen integrieren.
Damit verbinden wir die Offenheit und Selbstbestimmtheit von Open Source mit dem Komfort eines sicheren und stabilen KI-Backends. Viele Unternehmen möchten oder können keine eigenen Modelle betreiben, wollen aber ebenso wenig ihre sensiblen Daten einem Cloudanbieter eines Konzerns anvertrauen. Für genau diesen Mittelweg haben wir unsere Lösung entwickelt.
Wann können Zammad-Nutzer mit den ersten KI-Funktionen rechnen und wie sieht die langfristige Entwicklung aus?
Zammad 7.0 wird den Startpunkt für die KI-Funktionen markieren. Aktuell sind wir an dem Punkt angelangt, an dem die Architektur steht, die Modelle stabil laufen, das Feedback aus der Beta einfließt und wir belastbare Nutzungsdaten erhalten. Der Fokus liegt nun auf Qualitätssicherung und der Fertigstellung des initialen Funktionsumfangs.
Wir entwickeln Features nicht aus kurzfristigem Trenddenken heraus, sondern nach den Prinzipien Sinnhaftigkeit, Verantwortung und Transparenz. Die ersten Funktionen bieten vor allem Assistenz in Form von Zusammenfassungen, intelligentem Routing und sicherer Textunterstützung.
Langfristig wird Zammad seine KI umfassend weiterentwickeln – stets mit dem Ziel, Agenten wirksam zu unterstützen und nicht Entscheidungen blind an KI abzugeben. Genau das wird Zammad in den kommenden Jahren zu einer der spannendsten Open-Source-Helpdesk-Lösungen machen.