Style Guide KI-fähige Dokumente

So strukturieren Sie Inhalte, die Chatbots und Menschen schneller verstehen, finden und richtig beantworten.
usu_itsm_asset_ai_flyer

Grundlegende Themen der Nutzung von GenAI in der Beauskunftung

GenAI ist extrem hilfreich und leistungsfähig, um auf Fragen Antworten aus unstrukturierten Texten zu erstellen. Allerdings ist GenAI eben doch begrenzt, versteht nicht wirklich die Inhalte und generiert einfach in sich schlüssig klingende Texte.

Um praktisch verwertbare Ergebnisse erzielen zu können ist es wichtig, die zu nutzenden Inhalte so aufzubauen, dass sie von LLMs auch wirklich „fehlerfrei“ verwendet werden können.

Grundsätzlich kann man dabei anmerken, dass eine korrekte Beantwortung von Fragen mithilfe von Dokumenten dann richtig durchgeführt wird, wenn die folgenden Rahmenbedingungen erfüllt sind.

  • Die Inhalte müssen zu den Fragen passen. Das heißt, das System (der Agent) muss wissen, welche Fragen er beantworten darf (was als generelle Frageklassen definiert sein muss) und unzutreffende Fragen ablehnen. Dies muss in einem entsprechenden Prompt des Agentflows definiert werden oder auch in einem abschließenden Qualitätssicherungsschritt geprüft werden.

  • Die Dokumente müssen so aufgebaut sein, dass das genutzte LLM mit den Inhalten zurechtkommt. Hier kann beispielsweise ein weniger leistungsfähiges LLM von einer Vorverarbeitung der Inhalte profitieren.

  • Und das LLM muss so leistungsfähig sein, dass es die Dokumente auch verarbeiten kann. So kann dann ein leistungsfähigeres LLM auch mit etwas weniger strukturierten Dokumenten zurechtkommen.

1. Tipps für die Gestaltung der AI ready documents

Grundfrage

Generell muss man sich verdeutlichen, wofür ein Dokument verwendet wird, welche Fragen es beantworten kann.

Eine Prozessbeschreibung beispielsweise kann

  1. Einen ganzen Prozess Schritt für Schritt beschreiben
  2. Eine Antwort darauf geben, auf was in einem bestimmten Schritt zu achten ist oder
  3. Ermitteln, wer der Verantwortliche für einen Schritt ist.

Während die Punkte 2.) und 3.) durchaus mit der Nutzung eines LLMs geschickt beantwortet werden können, sollte man sich überlegen, ob die Frage „beschreibe mir Schritt für Schritt den Prozess xy“ nicht am besten mit einem Link auf das Dokument beantwortet wird. Eine solche Forderung kann als Anweisung in dem Dokument hinterlegt werden.

 

Inhalt

Die Inhalte müssen vollständig und widerspruchsfrei sein und dürfen kein Spezialwissen voraussetzen.

Vollständigkeit

Vollständigkeit meint, dass alle zu beantwortenden Fragen (die also im entsprechenden Agenten als beantwortbar definiert sind) beantwortet werden können. Alle Wissenslücken laden zum Halluzinieren ein.

Widerspruchsfreiheit

Widerspruchsfreiheit erscheint logisch. Dennoch tritt diese zuweilen auf, wann beispielsweise Sonderfälle nicht eindeutig gekennzeichnet sind. Tatsächlich erkennen die meisten LLMs Widersprüche nicht oder nur sehr unvollständig. Das Leistungsvermögen von LLMs steigt, wenn man den Reasoning-Aufwand erhöht. Allerdings ist dies in einer Beauskunftungssituation unrealistisch und wird auch mit steigendem Textvolumen dann wieder fehleranfälliger. Die tatsächliche Fähigkeit von AI zum Finden von Widersprüchen ist nicht stark ausgeprägt in größeren Textbeständen.

Kein Spezialwissen unerklärt verwenden

Häufig besteht in Unternehmen ein internes, als selbstverständlich vorausgesetztes Wissen, das die Maschine nicht wissen kann. Daher interpretiert sie häufiger Dinge einfach falsch. Beispiele sind Rollen von Mitarbeitern, die eh jeder kennt, Prozessbezeichnungen, Räumlichkeiten, Produkte etc. Aber auch Begriffe, die im Alltag anders verwendet werden. Ein Beispiel wäre der „Anschluss“ bei einem Energieversorger. Wenn das System nicht weiß, dass es um den Energieversorgerfall geht, kann es den Begriff des Anschlusses auch falsch interpretieren.

2. Struktur, Aufbau und Formatierung

Dokumentenlänge

Die Fehlerrate steigt bei GenAI mit der Länge der Texte, die es zu verarbeiten hat. Es ist daher hilfreich, abgeschlossene Wissenszusammenhänge zusammenhängend zu schreiben und Dokumente nicht zu lange werden zu lassen.

Das „Lokalitätsprinzip“

LLMs haben immer Probleme, Texte, die an verschiedenen Stellen stehen logisch zusammenzufassen. Soll beispielweise hinterlegt werden, wann dein Service geöffnet ist, dies jedoch auch von der Stadt, dem Tag und potentiellen Feiertagen abhängt, dann ist die Fehlerrate hoch, wenn diese Informationen verteilt stehen. Es ist immer hilfreich, solche zusammengehörenden Informationen auch zusammenzuschreiben.

Das „Vorverarbeitungsprinzip“

Es ist hilfreich, zutreffende komplexerer Aussagen im Dokument schon vorzusehen.

Beispiele:

1. Was ist der Größte, was ist der Kleinste: Das könnte das LLM auch selbst ermitteln, die Fehlerrate ist jedoch nicht klein

2. Wann ist der Laden geöffnet: Abhängig von Wochentag, Standort, Feiertag und noch einer Ausnahmenliste wäre das ziemlich fehlerträchtig. Hier ist es hilfreich, diese Aussagen schon kombiniert z.B. in Tabellenform im Dokument zu hinterlegen

3. Extraktion von Aussagen in strukturierte Datenstrukturen (YAML, JSON, XML): Die Qualität der LLM Verarbeitung steigt extrem, wenn Inhalte vorverarbeitet in strukturierten Daten zusätzlich zum Dokument abgelegt werden.

Nutzung von Templates 

Ein KI-fähiges Dokument sollte eine klare, wiederkehrende Struktur haben. Daher macht es auch Sinn, mit Templates zu arbeiten. Templates können sich dann für Tarife, Prozessbeschreibungen, Produktbeschreibungen, Prozesse, Sprachregelungen, Arbeitsanweisungen etc. unterscheiden. Wichtig ist, dass jeder Tarif gleich strukturiert ist, jeder Prozess etc.

Ein Beispiel für eine Prozessbeschreibung könnte so aussehen:

  1. Titel – eindeutig und beschreibend
  2. Einleitung/Zusammenfassung – wann und wofür der Prozess gilt.
  3. Zielgruppe – Wer führt den Prozess durch, welche Berechtigungen / Voraussetzungen werden benötigt
  4. Identifikationskriterien – Woran erkennt man den Fall?
  5. Prozessbeschreibung – Schritt-für-Schritt, nummeriert
  6. Sonderfälle/Ausnahmen – gesondert und klar gekennzeichnet
  7. Abschluss – Was danach zu tun ist
  8. Querverweise – mit kurzer Erklärung

Formatierungsregeln für klare Struktur

LLMs profitieren davon, wenn Texte übersichtlich formatiert sind.

  • Überschriften konsistent (hierarchisch, z. B. H1 → H2 → H3).
  • Nummerierte Listen für Prozessschritte.
  • Bulletpoints (•) für Aufzählungen.
  • Tabellen nur für strukturierte Daten, nicht für Fließtext.
  • Tabellenüberschriften (Header) immer beschreiben, keine leeren Felder in den Tabellen (sondern beispielsweise beschreiben, wenn es eine Variante nicht gibt.)
  • Deutlicher Abschluss von Listen: Eindeutig erkennbar machen, wann eine Liste endet, bevor der Fließtext weitergeht.

Metadaten

Metadaten erlauben häufig, die Datenmenge für das LLM so zu reduzieren, dass die Antwortqualität steigt. Beispielsweise sollen dem System nur die Dokumente zur Verfügung gestellt werden, die für Elektroautos gelten oder nur die Dokumente, die für Verbrenner gelten.

3. Sprache

  • Verwende klare, direkte Sprache – keine verschachtelten Sätze.
  • Im Präsens formulieren, wo es Sinn macht und möglich ist. Auf verwirrende Sprünge in den Zeitformen verzichten. (statt “Wenn der Kunde schon gewechselt hatte, ist zu prüfen ob...” lieber “sind in der Vertragshistorie zum Vertrag schon Wechsel eingetragen, dann ist zu prüfen...”) 
  • Konjunktiv vermeiden („sollte“, „könnte“) → stattdessen klare Aussagen
  • Keine unnötigen Fachbegriffe, und wenn sie nötig sind: immer erklären. Diese Erklärung kann auch über ein zusätzliches Glossar geliefert werden, auf das die AI im Fragefall Zugriff hat.
  • Prozesse beschreiben, nicht nur Zustände („Klicke auf...“, „Wähle...“, statt „ist geöffnet“).
  • Klare Bedingungen und Regeln formulieren, wenn Aussagen nur bedingt gelten. Dabei ist zu berücksichtigen, dass komplizierte Bedingungen für AI schnell zu kompliziert werden (beispielsweise Vertragsbedingungen). Da kann es auch sein, dass man lieber auf entsprechende Systeme (Konfiguratoren oder Preisrechner) verweist oder diese als Tool verwendet.
  • Kein impliziertes Wissen (siehe oben): Menschen wissen viel über die Umgebung- die AI eigentlich nichts. Allgemeines Wissen zu Sprachregelungen, Ansprechpartnern, räumlichen Gegebenheiten etc. sind dem System generell nicht bekannt und können daher nicht vorausgesetzt werden.
  • Konsistente Formulierungen, immer dieselben Begriffe für Prozesse, Rollen, Systeme, Produkte etc. verwenden
  • Unklare Ausdrucksweise – vermeide doppeldeutige oder widersprüchliche Formulierungen.
  • Eindeutige Satzbezüge herstellen („Die Möglichkeit einer Gruppenversicherung gilt nicht für Landwirt:innen“ statt „Dies gilt nicht für Landwirt:innen“). Statt Pronomen, Adverben etc. den direkt gemeinten Sachverhalt lieber nochmal schreiben.
  • Explizit machen, wenn etwas nicht gilt oder nicht existiert, um Fehlinterpretationen zu vermeiden. Beispiel: Gibt es im Hallenbad ermäßigte Preise, im Freibad hingegen nicht, dann sollte man explizit beschreiben, dass es im Freibad keine ermäßigten Preise gibt, um zu verhindern, dass das LLM sich Ermäßigtenpreise im Freibad ausdenkt.
  • Klare Trennung zwischen Prozessen, Regeln, Hintergrundinformationen.
  • Eindeutige Reihenfolgen sprachlich deutlich kennzeichnen („Zuerst... Dann... Anschließend...“).

Über den Autor

Harald Huber ist langjähriger Autor und Referent für Wissensmanagement-Themen und Trends im Customer Service, sei es Self-Service oder Chatbots.

Wenn Sie Rückfragen oder Ideen zum Style Guide haben, schreiben Sie gerne eine E-Mail an: harald.huber@usu.com
Image (8)

FAQs zu KI-fähigen Dokumenten

Woher weiß ich die Grenzen und Möglichkeiten der eingesetzten LLMs?

Wir haben einige Key-Benchmarks für den RAG Fall definiert. Und für einige LLMs liegen auch Benchmarks vor. Ein sehr gutes und leistungsfähiges Modell ist beispielsweise GPT 5.1 Chat, das beispielsweise deutlich weniger unzulässige Generalisierungen durchführt als mini oder nano Modelle. Tipp: Probieren Sie einfach einige Edge Cases mit dem von Ihnen geplanten Modell durch, dann können Sie selbst die Leistungsfähigkeit abschätzen. Oder Sie fragen uns.

Ich habe so viele Dokumente, die alle überarbeitet werden müssten. Wie kann ich da vorgehen?

Zum Einen kann GenAI wie zum Beispiel KAI in Knowledge Center hier eine echte Hilfe sein. Zum anderen macht es Sinn zu überlegen, wo man anfängt, für welche Fragen eine hohe Antwortgenauigkeit gefordert wird und wo das weniger der Fall ist. Und drittens: Wenn in den Dokumenten Texte stehen, die Sie nur zitiert haben wollen, sie aber beispielsweise keine Rechnungen oder Schlussfolgerungen zulassen wollen, dann können Sie das auch im Prompt entsprechend definieren. Wichtig: Wenn Sie die Freiräume für das LLM reduzieren, dann reduzieren Sie natürlich auch das Fehlerrisiko. Und damit auch die Überarbeitungsanforderungen an die Dokumente.

Kann AI denn auch testen, wie gut meine Dokumente sind?

Einige Aspekte sind von LLMs gut testbar, beispielsweise die Vollständigkeit von Datumsangaben oder die Verwendung von nicht weiter definierten Verweisen. Schwieriger wird es bei der Vollständigkeit der Aussage, da das System nicht wissen kann, was es nicht weiß. Hier hilft es, Templates zu definieren. Gibt beispielsweise eine Preisaussage immer vor, dass eventuelle Rabattierungen anzugeben sind, dann kann das System prüfen, ob eine Rabattierung angegeben ist oder eben vergessen wurde.

Einige und auch hilfreiche Aspekte können LLMs erkennen, und das wird auch bei USU Knowledge Center entsprechend möglich. Wird aber beispielsweise ein Alltags-Begriff (wie Anschluss) in dem jeweiligen Fachthema anders verwendet, kann das das LLM nicht erkennen. Wesentliche und hIlfreiche Prüfungen auf AI Readyness können also per LLM durchgeführt werden, einige jedoch nicht. Für die muss der Mensch dann selbst sorgen.

Gibt es Beispiele, die zeigen, wie Inhalte richtig oder falsch aufbereitet sind?

Wir haben sowohl ein gutes als auch ein schlechtes Beispiel vorbereitet, um eine bessere Orientierung zu ermöglichen. Auf Anfrage schicken wir diese gerne zu.

Direkt ins Gespräch kommen

Sie haben Fragen? Ein kurzes Gespräch schafft oft mehr Klarheit als viele E-Mails. Unsere Expertin zeigt Ihnen auch gerne, wie Customer Service Knowledge Management in der Praxis funktioniert – persönlich und unverbindlich.

Anke Kanwischer

Anke Kanwischer

Sales Development

Customer Service Knowledge Management

Schreiben Sie uns

Ganz gleich, ob Sie mit uns arbeiten möchten oder nur ein paar Fragen haben.