Zwischen Vertrauen und Verantwortung: Inwiefern können UX-Teams sich auf die Ergebnisse generativer KI verlassen

Der Einsatz generativer KI im Usability-Engineering und UX-Design eröffnet neue Potenziale – von der effizienten Textgenerierung über die Ideenfindung bis hin zur Unterstützung bei der Forschungsplanung. Gleichzeitig stellt sich jedoch eine zentrale Frage: Wann ist es angemessen, den Ergebnissen dieser Systeme zu vertrauen? Und wann führt ein unreflektiertes Vertrauen zu Risiken für die Qualität der Nutzererfahrung?

Zwischen Produktivität und Fehlleitung

Generative KI-Systeme, insbesondere große Sprachmodelle, beeindrucken durch ihre Fähigkeit, flüssige, situationsgerechte Texte zu erzeugen. Sie transkribieren Audioaufnahmen, helfen bei der Formulierung von Nutzerfragen oder liefern erste Entwürfe für Textelemente in Interfaces. Doch während sie dabei häufig nützliche Ergebnisse liefern, ist ihre Fähigkeit zur faktischen Richtigkeit eingeschränkt.

Diese sogenannten „Halluzinationen“ entstehen, weil generative KI auf Wahrscheinlichkeitsmodellen basiert. Sie sagt nicht „die Wahrheit“, sondern erstellt die wahrscheinlichste sprachliche Fortsetzung auf Basis großer Mengen an Trainingsdaten. Der resultierende Text wirkt plausibel, ist jedoch nicht zwangsläufig korrekt oder konsistent.

Im UX-Kontext kann dies weitreichende Folgen haben. Wird beispielsweise eine KI eingesetzt, um Nutzerfeedback zu analysieren, Empfehlungen für Interface-Verbesserungen abzuleiten oder gar Designentscheidungen zu rechtfertigen, ohne dass deren Richtigkeit überprüft wird, drohen Fehlentwicklungen.

Das Phänomen des „Magic-8-Ball“-Denkens

Die UX-Forscherin Savina Hawkins beschreibt diese unkritische Haltung gegenüber KI-Ergebnissen als „Magic-8-Ball-Denken“. Der Begriff verweist auf das bekannte Spielzeug, das auf Zufallsbasis einfache Ja-Nein-Antworten gibt – scheinbar richtungsweisend, aber ohne echten Bezug zur Realität.

Im übertragenen Sinne bedeutet dies: Wer KI-generierte Aussagen ungeprüft übernimmt, verlässt sich auf eine Antwort, die zwar überzeugend formuliert ist, aber möglicherweise keinerlei Substanz hat. Besonders kritisch wird dies, wenn UX-Teams in Bereichen arbeiten, in denen sie selbst nicht über genügend Fachwissen verfügen, um die Aussagen der KI zu validieren – etwa bei komplexen rechtlichen, technischen oder psychologischen Fragestellungen.

Auch eine hohe Vertrautheit mit der KI oder die Erfahrung, dass diese bereits mehrfach „funktionierende“ Ergebnisse geliefert hat, kann dazu führen, dass Nutzer ihr Urteilsvermögen zurückstellen. Dies kann zu einer schleichenden Abhängigkeit von einem System führen, das keine inhaltliche Verantwortung für seine Aussagen übernimmt.

UX-Design braucht menschliches Urteilsvermögen

Im Usability-Engineering und UX-Design ist der Kontext entscheidend. Die Bewertung von Nutzerverhalten, die Entwicklung sinnvoller Navigationsstrukturen oder die Gestaltung barrierefreier Interfaces erfordert nicht nur sprachliche, sondern auch konzeptionelle Präzision.

Generative KI kann hier zwar als Impulsgeber dienen – etwa in der Ideationsphase oder bei der Formulierung erster Designhypothesen –, ersetzt aber nicht die fundierte Analyse durch erfahrene UX-Fachleute. Der Einsatz solcher Tools sollte sich stets auf Aufgaben beschränken, deren Ergebnisse man entweder selbst validieren kann oder bei denen es nicht entscheidend ist, ob der Output faktisch korrekt ist – beispielsweise bei Platzhaltertexten oder in frühen Entwurfsstadien.

Sobald jedoch auf Basis generierter Inhalte Nutzerinteraktionen, strategische Entscheidungen oder datengestützte Priorisierungen erfolgen, ist ein kritischer Umgang unabdingbar. Nur wenn UX-Teams bereit sind, Verantwortung für die Qualität der durch KI erzeugten Inhalte zu übernehmen, sollten diese auch in die Entscheidungsfindung einfließen.

Zwischen Fazit und Empfehlung

Die Integration generativer KI in UX-Prozesse kann enorme Effizienzgewinne bringen – sofern sie mit einem klaren Bewusstsein für die Grenzen dieser Technologie erfolgt. „Magic-8-Ball“-Denken führt dagegen zu Entscheidungen ohne Substanz, zu Designs ohne Verankerung in echter Nutzerforschung und letztlich zu Produkten, die an den Bedürfnissen der Menschen vorbeientwickelt werden.

UX- und Usability-Fachkräfte sind gefordert, ihre eigene Expertise aktiv einzubringen, die Ergebnisse generativer Systeme zu hinterfragen und die Verantwortung für die Qualität des Designs nicht an eine Black Box zu delegieren. KI kann ein Werkzeug sein – aber sie ersetzt weder methodisches Denken noch nutzerzentrierte Gestaltung.