Deep Research im Design: Von der Datenflut zur fundierten Guideline in Rekordzeit

23.03.2026 • 4 minutes reading time

Juliane Zirke Senior UX Designer

Jan Stricker Senior Business Developer

Esther Barra Lead Communication Manager

Jetzt Termin vereinbaren

Warum Deep Research heute anders funktioniert

Die grösste Herausforderung im Design von KI-Assistenten ist heute nicht fehlendes Wissen – sondern zu viel davon. Zwischen fragmentierten Quellen, schnellen technologischen Entwicklungen und widersprüchlichen Best Practices wird aus Recherche schnell ein Risiko statt einer Entscheidungsgrundlage.

Im Rahmen eines Kundenprojekts standen wir vor einer typischen Herausforderung moderner UX-Arbeit: Wie lassen sich belastbare Design-Guidelines für KI-Assistenten entwickeln, wenn der Markt fragmentiert ist, Quellen widersprüchlich sind und sich Technologien rasant weiterentwickeln? Der Fokus lag bewusst auf dialogbasierten KI-Assistenten mit dem Ziel, über allgemeine UX-Prinzipien hinauszugehen und praxisnahe, belegbare Empfehlungen abzuleiten. Schnell wurde klar: Der ursprünglich geplante Ansatz reichte dafür nicht aus.

Deswegen haben wir die Recherche neu aufgesetzt: systematisch, quellenbasiert und unterstützt durch KI-Tools – ohne dabei auf kritische menschliche Bewertung zu verzichten. 

Dieser Artikel zeigt, wie wir diesen Prozess gestaltet haben, wie KI Research beschleunigt hat und warum die Kombination aus technischer Unterstützung und fachlicher Einordnung entscheidend für belastbare Design-Guidelines ist.

Vom Szenario zur Wissensbasis: Warum wir neu angesetzt haben

Zu Beginn sollten die Guidelines direkt aus durch uns im Vorprojekt erstellten Customer Journeys abgeleitet werden. Diese beschrieben jedoch sehr spezifische Nutzungsszenarien und erwiesen sich als zu eng, um allgemeingültige Empfehlungen für KI-Assistenten zu formulieren. Die Konsequenz: ein methodischer Neustart.

Neustart der Recherche: erst Breite, dann Tiefe

Wir griffen auf bestehende Recherche zurück (u. a. Quellen wie offizielle Ai-Guidebooks von  Google, Microsoft, Amazon) und ergänzten sie durch klassisches Desk Research: Best Practices, Pressematerialien und Erfahrungsberichte aus Fachartikeln und YouTube. Ziel war ein realistischer Marktüberblick.

Die ersten Insights lieferten Orientierung, blieben aber noch auf einer hohen Abstraktionsebene.

Für mehr Tiefgang nutzten wir Deep-Research-Funktionen von Perplexity, ChatGPT und Google Gemini. Der zentrale Prompt fokussierte sich auf Empfehlungen zur Nutzung von KI-Assistenten 

Wichtige Learnings:

  • Bei Perplexity und Gemini erwiesen sich die Quellenlisten als deutlich wertvoller als die generierten Zusammenfassungen.

  • Bei ChatGPT traten vereinzelt halluzinierte Quellen auf – hier war besondere Vorsicht geboten.

Alle durch uns validierten Quellen wurden anschliessend zentral in Notebook LM zusammengeführt.

Präzision durch strukturiertes Prompting

Um aus der umfangreichen Quellenbasis gezieltere Antworten zu erhalten, setzten wir Meta-Prompting ein. Mit diesem Ansatz gibt man der KI Kontextbewusstsein mit und leitet sie dazu an, strukturierter zu denken, ihre Antworten kritisch zu hinterfragen und relevantere Ergebnisse zu liefern. Ein sogenanntes Improvement Framework half dabei, Prompts systematisch zu schärfen – etwa hinsichtlich Task-Spezifität, Kontext, Klarheit und Genauigkeit.

Der optimierte Prompt diente dazu, die gesammelten Quellen in Notebook LM strukturiert zu befragen und eine umfassende Liste relevanter Erkenntnisse zu generieren.

Wichtig: Meta-Prompting ist ein hilfreiches Werkzeug, aber kein Selbstzweck. Mit der zunehmenden Reife von LLMs wird es perspektivisch optional – kritisches Denken bleibt jedoch unverzichtbar.

Wo menschliche Bewertung unverzichtbar bleibt

Die gewonnenen Erkenntnisse wurden manuell gefiltert, strukturiert und mit klaren Quellen versehen. Fachliche Rückfragen des Kunden spielten dabei eine zentrale Rolle: Sie halfen, Hypothesen zu überprüfen und kontextspezifische Aspekte zu schärfen.

Diese Rückfragen flossen erneut in gezielte Abfragen der Quellenbasis ein. So entstand ein iterativer Dialog zwischen Mensch, KI und Daten – mit klarer menschlicher Verantwortung. 

Im nächsten Schritt wurden die umfangreichen Forschungsergebnisse in verständliche, anwendbare Guidelines überführt. Auch hier kam Notebook LM unterstützend zum Einsatz: Die bisherigen Analysen wurden als zusätzliche Quellen integriert.

Ein spezifischer Prompt half, die Inhalte konsistent aufzubereiten – nach einem festen Muster:

  • kurze Zusammenfassung

  • Methodik / Prinzipien

  • Do’s & Don’ts mit klaren Zeichenlimits

Der KI-Output diente ausschliesslich als Ausgangspunkt. Die finale Ausarbeitung erfolgte manuell, um Verallgemeinerungen zu vermeiden und projektspezifische Anforderungen zu berücksichtigen.

Dabei zeigte sich, dass sich bestimmte UX-Prinzipien wiederholt bestätigten. Diese wurden als übergreifende Einleitung definiert und in den einzelnen Guideline-Bereichen referenziert. Die Auswahl passender Bildmetaphern zur visuellen Veranschaulichung der Guidelines wurde bewusst manuell gehalten– KI liefert hier keine ausreichend präzisen Ergebnisse.

Ergebnisse & Learnings

Das Ergebnis ist kein loses Sammelsurium an Empfehlungen, sondern ein konsistenter, nachvollziehbarer Leitfaden, der komplexe Erkenntnisse auf eine handhabbare Ebene für Design- und Produktteams übersetzt.

Zentrale Mehrwerte:

  • belastbare Entscheidungsgrundlage statt Informationschaos

  • klare Trennung von belegten Erkenntnissen und Annahmen

  • gemeinsames Verständnis zwischen Projektteam und Kund:innen

Best Practices aus dem Projekt

  • KI-Research immer mit kritischer Quellenprüfung kombinieren

  • LLM-Zusammenfassungen nicht ungeprüft übernehmen

  • Kund:innen aktiv in die Schärfung von Hypothesen einbeziehen

  • Guidelines iterativ und modular aufbauen

Die entwickelten Guidelines bilden die Grundlage für weitere Konzept- und Designphasen und lassen sich kontinuierlich an neue technologische Entwicklungen anpassen.

Das Projekt zeigt exemplarisch, wie Deep Research im Design durch KI deutlich beschleunigt werden kann – vorausgesetzt, menschliche Expertise, methodische Disziplin und kritisches Denken bleiben zentrale Bestandteile des Prozesses. Genau darin sehen wir den nachhaltigen strategischen Mehrwert für unsere Kund:innen.

Möchten Sie Deep Research in Ihrem nächsten Projekt strategisch nutzen?

Lassen Sie uns besprechen, wie wir menschliche Expertise und KI-Beschleunigung verbinden, um für Sie belastbare Entscheidungsgrundlagen zu schaffen.

Jetzt Kontakt Aufnehmen

Jan Stricker

Senior Business Developer