Zwischen Vertrauen und Verantwortung: Inwiefern können UX-Teams sich auf die Ergebnisse generativer KI verlassen

Der Einsatz generativer KI im Usability-Engineering und UX-Design eröffnet neue Potenziale – von der effizienten Textgenerierung über die Ideenfindung bis hin zur Unterstützung bei der Forschungsplanung. Gleichzeitig stellt sich jedoch eine zentrale Frage: Wann ist es angemessen, den Ergebnissen dieser Systeme zu vertrauen? Und wann führt ein unreflektiertes Vertrauen zu Risiken für die Qualität der Nutzererfahrung?

Zwischen Produktivität und Fehlleitung

Generative KI-Systeme, insbesondere große Sprachmodelle, beeindrucken durch ihre Fähigkeit, flüssige, situationsgerechte Texte zu erzeugen. Sie transkribieren Audioaufnahmen, helfen bei der Formulierung von Nutzerfragen oder liefern erste Entwürfe für Textelemente in Interfaces. Doch während sie dabei häufig nützliche Ergebnisse liefern, ist ihre Fähigkeit zur faktischen Richtigkeit eingeschränkt.

Diese sogenannten „Halluzinationen“ entstehen, weil generative KI auf Wahrscheinlichkeitsmodellen basiert. Sie sagt nicht „die Wahrheit“, sondern erstellt die wahrscheinlichste sprachliche Fortsetzung auf Basis großer Mengen an Trainingsdaten. Der resultierende Text wirkt plausibel, ist jedoch nicht zwangsläufig korrekt oder konsistent.

Im UX-Kontext kann dies weitreichende Folgen haben. Wird beispielsweise eine KI eingesetzt, um Nutzerfeedback zu analysieren, Empfehlungen für Interface-Verbesserungen abzuleiten oder gar Designentscheidungen zu rechtfertigen, ohne dass deren Richtigkeit überprüft wird, drohen Fehlentwicklungen.

Das Phänomen des „Magic-8-Ball“-Denkens

Die UX-Forscherin Savina Hawkins beschreibt diese unkritische Haltung gegenüber KI-Ergebnissen als „Magic-8-Ball-Denken“. Der Begriff verweist auf das bekannte Spielzeug, das auf Zufallsbasis einfache Ja-Nein-Antworten gibt – scheinbar richtungsweisend, aber ohne echten Bezug zur Realität.

Im übertragenen Sinne bedeutet dies: Wer KI-generierte Aussagen ungeprüft übernimmt, verlässt sich auf eine Antwort, die zwar überzeugend formuliert ist, aber möglicherweise keinerlei Substanz hat. Besonders kritisch wird dies, wenn UX-Teams in Bereichen arbeiten, in denen sie selbst nicht über genügend Fachwissen verfügen, um die Aussagen der KI zu validieren – etwa bei komplexen rechtlichen, technischen oder psychologischen Fragestellungen.

Auch eine hohe Vertrautheit mit der KI oder die Erfahrung, dass diese bereits mehrfach „funktionierende“ Ergebnisse geliefert hat, kann dazu führen, dass Nutzer ihr Urteilsvermögen zurückstellen. Dies kann zu einer schleichenden Abhängigkeit von einem System führen, das keine inhaltliche Verantwortung für seine Aussagen übernimmt.

UX-Design braucht menschliches Urteilsvermögen

Im Usability-Engineering und UX-Design ist der Kontext entscheidend. Die Bewertung von Nutzerverhalten, die Entwicklung sinnvoller Navigationsstrukturen oder die Gestaltung barrierefreier Interfaces erfordert nicht nur sprachliche, sondern auch konzeptionelle Präzision.

Generative KI kann hier zwar als Impulsgeber dienen – etwa in der Ideationsphase oder bei der Formulierung erster Designhypothesen –, ersetzt aber nicht die fundierte Analyse durch erfahrene UX-Fachleute. Der Einsatz solcher Tools sollte sich stets auf Aufgaben beschränken, deren Ergebnisse man entweder selbst validieren kann oder bei denen es nicht entscheidend ist, ob der Output faktisch korrekt ist – beispielsweise bei Platzhaltertexten oder in frühen Entwurfsstadien.

Sobald jedoch auf Basis generierter Inhalte Nutzerinteraktionen, strategische Entscheidungen oder datengestützte Priorisierungen erfolgen, ist ein kritischer Umgang unabdingbar. Nur wenn UX-Teams bereit sind, Verantwortung für die Qualität der durch KI erzeugten Inhalte zu übernehmen, sollten diese auch in die Entscheidungsfindung einfließen.

Zwischen Fazit und Empfehlung

Die Integration generativer KI in UX-Prozesse kann enorme Effizienzgewinne bringen – sofern sie mit einem klaren Bewusstsein für die Grenzen dieser Technologie erfolgt. „Magic-8-Ball“-Denken führt dagegen zu Entscheidungen ohne Substanz, zu Designs ohne Verankerung in echter Nutzerforschung und letztlich zu Produkten, die an den Bedürfnissen der Menschen vorbeientwickelt werden.

UX- und Usability-Fachkräfte sind gefordert, ihre eigene Expertise aktiv einzubringen, die Ergebnisse generativer Systeme zu hinterfragen und die Verantwortung für die Qualität des Designs nicht an eine Black Box zu delegieren. KI kann ein Werkzeug sein – aber sie ersetzt weder methodisches Denken noch nutzerzentrierte Gestaltung.

A/B-Test Basics

A/B-Tests sind eine beliebte Forschungsmethode, die vielfältige Einsatzmöglichkeiten findet. Um die Erfolgreiche Durchführung eines A/B-Tests zu gewährleisten, gibt es einige Best Practices, die zur Vermeidung von Fehlern und für den Erfolg der Untersuchung berücksichtigt werden sollten. „A/B-Test Basics“ weiterlesen

Fraunhofer FIT-Ausbildung zum Zertifizierten Usability Engineer vom 07. bis 12. Juli 2025

Der Bereich „Usability-Engineering und User Experience (UX) Design“ des Fraunhofer FIT bietet vom 07. bis 12. Juli 2025 einen weiteren Durchgang der Ausbildung zum Zertifizierten Usability Engineer an. Die Ausbildung ist ein anerkanntes Seminar der Fraunhofer Academy. „Fraunhofer FIT-Ausbildung zum Zertifizierten Usability Engineer vom 07. bis 12. Juli 2025“ weiterlesen

Technische Fähigkeiten versus kreatives Gespür: Die Rolle von KI im Usability-Engineering und UX-Design

Wenn generative KI es ermöglicht, mit minimalem Aufwand funktionale Designs zu erstellen, wird strategisches Urteilsvermögen im UX-Design und Usability-Engineering zum entscheidenden Faktor. Kreative Fähigkeiten bleiben unverzichtbar, um nicht nur technisch korrekte, sondern auch intuitive, nutzerfreundliche und markenkonforme Designs zu schaffen. „Technische Fähigkeiten versus kreatives Gespür: Die Rolle von KI im Usability-Engineering und UX-Design“ weiterlesen

Usability-Engineering und GenAI: Erfolgsfaktoren für eine nachhaltige Zusammenarbeit zwischen Mensch und Künstlicher Intelligenz

Die Zusammenarbeit von Mensch und Künstlicher Intelligenz (KI) birgt großes Potenzial, stellt jedoch hohe Anforderungen an Usability-Engineering und nutzerzentrierte Gestaltung. Damit GenAI-Systeme (Generative AI) effektiv, effizient und zufriedenstellend genutzt werden können, müssen sie gezielt an den Nutzungskontext angepasst und menschzentriert gestaltet werden. Die ISO 9241-Normenreihe liefert dafür entscheidende Leitlinien. „Usability-Engineering und GenAI: Erfolgsfaktoren für eine nachhaltige Zusammenarbeit zwischen Mensch und Künstlicher Intelligenz“ weiterlesen

Living Labs: Ein essenzieller Baustein im Usability-Engineering und UX-Design

Wer Produkte und Dienstleistungen mit einer herausragenden User Experience (UX) entwickeln will, muss die reale Nutzungssituation im Blick behalten. Theoretische Konzepte und Labortests helfen zwar, bringen aber oft nur begrenzt Erkenntnisse darüber, wie sich ein System im echten Leben bewährt. Genau hier kommen Living Labs ins Spiel – reale Testumgebungen, die Usability- und UX-Forschung auf das nächste Level heben.

„Living Labs: Ein essenzieller Baustein im Usability-Engineering und UX-Design“ weiterlesen

Usability-Forschung mit generativer KI planen

Generative KI kann Usability-Experten und UX-Designern helfen, Forschungspläne effizienter zu erstellen. Mit dem richtigen Kontext, gezielten Prompts und einer kritischen Überprüfung der KI-Ergebnisse kann sie den Prozess beschleunigen und strukturieren. Doch eine unreflektierte Nutzung birgt Risiken. Wie gelingt die Integration in den UX-Research-Prozess? „Usability-Forschung mit generativer KI planen“ weiterlesen

Fraunhofer FIT-Ausbildung zum Zertifizierten Usability Engineer vom 31. März bis 05. April 2025

Der Bereich „Usability-Engineering und User Experience (UX) Design“ des Fraunhofer FIT bietet vom 31. März bis 05. April 2025 einen weiteren Durchgang der Ausbildung zum Zertifizierten Usability Engineer an. Die Ausbildung ist ein anerkanntes Seminar der Fraunhofer Academy. „Fraunhofer FIT-Ausbildung zum Zertifizierten Usability Engineer vom 31. März bis 05. April 2025“ weiterlesen

Einladung zur Teilnahme an einer Studie zum Thema „Nutzung von GenAI wie ChatGPT im Arbeitsalltag“

Für eine Studie zur „Nutzung von GenAI im Arbeitsalltag“ sucht die Abteilung Human Centered Engineering & Deisgn (HCED) am Fraunhofer-Institut FIT nach Interviewteilnehmern, die regelmäßig GenAI (z.B. ChatGPT) in ihrem beruflichen Umfeld einsetzen und Interesse haben, ihre Erfahrungen zu teilen. Die Interviews dauern etwa eine Stunde und kann in Englisch oder Deutsch beantwortet werden. „Einladung zur Teilnahme an einer Studie zum Thema „Nutzung von GenAI wie ChatGPT im Arbeitsalltag““ weiterlesen