Warum ChatGPT eher ein UX-Designer ist als ein Supportler
Was tun Sie, wenn Sie etwas nicht wissen? Sich entschuldigen für das Unwissen? So tun als ob Sie es wissen und etwas erfinden? Oder versuchen Sie die Wissenslücke zu füllen, bevor Sie antworten? Letzteres ist ChatGPT fremd. Beim Beantworten von Support-Anfragen zeigt er sich unerfreulich kreativ. Kann AI im Support trotzdem eine Hilfe sein?
EHW+ ist von Anfang an eine App, bei der die Nutzer den Ton angeben. Selbstverständlich gibt es daher von Anfang an auch Feedback-Kanäle. Nutzer melden hier Fehler, stellen Fragen oder machen Verbesserungsvorschläge. Nebenbei dann auch noch zu entwickeln ist eine Herausforderung. Folglich hat mich interessiert, ob ChatGPT von OpenAI mir hier Arbeit abnehmen kann. Im ersten Schritt habe ich ChatGPT erst einmal mit Datenversorgt. Ich habe ihm die FAQs der App in deutscher Sprache gegeben und lernen lassen. Ich habe außerdem mal ein paar Beispiele gegeben, wie ich auf Anfragen antworte. Ich war sehr gespannt, was dann passieren würde.
Ist ChatGPT ein guter Supportler?
Frage zur Tankbefüllung
Legen wir los mit der ersten Anfrage, einer Frage.
An sich tolle App. Aber wo trage ich bei Öl neue Tankbefüllungen ein?
Es handelt sich um eine Frage, also eine dankbare Aufgabe für ChatGPT, oder?
Die Antwort sieht auf den ersten Blick recht plausibel aus. Unter Punkt 3 haben wir jedoch ein Problem. Der Menü-Punkt heißt "Aktuellen Zählerstand eintragen", nicht "Eintrag hinzufügen". Das dürfte noch kaum ein Nutzer bemerken. Unter Punkt 4 haben wir jedoch ein Problem. Der Nutzer sollte vor Eintragung des neuen Ölstands erst den alten Füllstand des Tanks eintragen. In Punkt 5 sehen wir wieder, das ChatGPT Wissenslücken füllt. Einen "Speichern"-Button kennt die App nicht. Sie speichert sofort die Eingabe.
Frage zur Prognose
In der App häufig nicht verstanden sind Prognosen. Die App ist kein einfacher Taschenrechner, sie schaut auch in die Zukunft und versucht abzuschätzen, wie hoch der Verbrauch in Zukunft sein könnte. ChatGPT weiß deshalb aus den FAQs, wie Prognosen funktionieren, zumindest theoretisch.
Kommen wir zu einem Klassiker.
In der App stehen im Gaszähler Werte für 2023. Dabei habe ich für Februar noch gar nichts eingetragen. Wie kann das sein?
Kalt, ganz kalt, wie man beim Topfschlagen sagen würde. Geben wir ChatGPT eine zweite Chance:
Schon mal ein kleines bisschen besser, aber immer noch keine gute Antwort. Prognosen sind eine Kernfunktion der App und kein Fehler. Wir sehen hier die Tendenz, sich zu entschuldigen und Sachen zu erfinden. Tatsächlich enthält die App keine Warnung, dass Schätzungen falsch sein können. Aber hey, gute Idee, ChatGPT. Vielleicht bist du eher ein UX-ler als ein Support'ler.
Fehler
Probieren wir es trotzdem erst noch mit einer Fehlermeldung:
--- IS: ---Ich bekomme keine Benachrichtigung. Nur wenn die App geöffnet ist, sehe ich oben die Info. Die Berechtigung habe ich vergeben.--- SHOULD: ---Die Benachrichtigung sollte auch bei geschlossenener App erfolgen.
Würde das so abgeschickt werden, würde das den Nutzer sicher nicht sonderlich freuen. Schließlich hat er schon angegeben, dass er die Berechtigungen geprüft hat. Besser wäre eine Nachfrage, wie oft er erinnert werden möchte und ob eine andere Einstellung vielleicht funktioniert.
Vorschlag
Nach Fragen und Fehlern probieren wir es noch mit einem Vorschlag.
hallo, ich würde gerne Freitags eine Erinnerung erhalten. Das ist nicht möglich?
Klarer Fall von "Bitte bitte nicht abschicken, sonst...". Nutzer können sich bisher nicht Erinnerungen für Freitage erstellen. Aber ChatGPT weiß bereits, wie das in der App in der Zukunft gehen könnte. Der UX-Designer schlägt wieder durch.
Fazit
Der Support'ler wird nicht eingestellt. Ich lasse Kunden lieber etwas länger auf Antworten warten, als dass ich ChatGPT auf sie loslasse. ChatGPT ist am Ende dann doch nur ein Hilfstool. Es eignet sich hervorragend, um Texte zu formulieren oder umzuschreiben. Vielleicht kann man sogar die ein oder andere Idee aus der Antwort von ChatGPT umsetzen. Aber gegenlesen und korrigieren bleibt Pflicht. Das gilt für Texte, für Programmcode, für vermeintliche Fakten.