Diese Seite wird auf Englisch angezeigt, während eine geprüfte Übersetzung für Ihre Sprache vorbereitet wird.

Warum wir KI-Genauigkeit ohne „dynamische Exemplar“-Bibliotheken entwickeln

Eine Perspectis AI-Perspektive für Führungskräfte: Genauigkeit als Plattformdisziplin – mandantenorientierte Verankerung, strukturierte Fähigkeiten und ehrliche Grenzen der Ähnlichkeits-Fragen-Antworten-Suche – nicht bloßer Hype um Eingabeaufforderungen.

Eine leicht verständliche Perspektive für Führungskräfte, Kunden und Teams (April 2026)


Die Kurzfassung

Wir betrachten zuverlässige KI-Unterstützung als Plattformdisziplin: klare Rollen für das Modell, mandantenorientierte Handhabung, fundierter Kontext aus den freigegebenen Daten jedes Kunden, strukturierte Übergaben, bei denen die Automatisierung nicht abdriften darf, und bewusstes Routing zwischen internen Antworten, optionaler Live-Recherche und tiefergehender Analyse, wenn die Komplexität dies erfordert.

Wir verzichten bewusst auf ein gängiges Muster, das manchmal als dynamischer Exemplarabruf bezeichnet wird – die Pflege einer großen Datenbank historischer Frage-Antwort-Paare und das Einfügen der „ähnlichsten“ Beispiele in jede Anfrage. Dieses Muster mag in Demos clever aussehen; Wir bevorzugen einen Ansatz, der nachvollziehbar bleibt, organisatorisch isoliert ist und den Sorgfaltspflichten im Bereich professioneller Dienstleistungen entspricht.


Warum dies im Marktgespräch wichtig ist

Schlagzeilen reduzieren „bessere KI“ oft auf größere Modelle oder intelligentere Vorschläge. In regulierten und reputationssensiblen Branchen stellen Führungskräfte zu Recht eine andere Frage: Was genau darf das System sehen, zitieren und tun – und wie stellen wir die Stabilität sicher, wenn sich Modelle und Anbieter ändern?

Dieses Dokument ist unsere verständliche Antwort auf einen Teil dieser Frage: Wie wir Genauigkeit und schnelle Vorbereitung innerhalb von Perspectis AI umsetzen, einschließlich des Personal Agent Representative-Pfads, der ChatWindow und verwandte Oberflächen unterstützt.


Was „Prompt Engineering“ hier bedeutet (ohne Übertreibung)

Prompt Engineering bedeutet einfach alles, was wir dem Modell bewusst vorgeben, bevor es antwortet: Anweisungen, zulässiger Kontext, Ausgabestruktur und Leitplanken. Es ist kein Zauberspruch, sondern operative Einweisung – vergleichbar mit der klaren Weisung eines erfahrenen Kollegen, bevor er im Namen des Unternehmens spricht.


Das Muster, das wir vermeiden: Dynamischer Abruf von Beispielen (genau erklärt)

Manche Systeme verwenden eine Bibliothek mit Beispielfragen und -antworten – manchmal aus umfangreichen Datensätzen oder zusammengefassten Verlaufsdaten. Bei jeder neuen Frage suchen sie nach ähnlichen Fragen und Antworten aus der Vergangenheit und fügen diese Beispiele in die Eingabeaufforderung ein, damit das Modell Tonfall und Struktur nachahmen kann.

Das kann die Sprachkompetenz in eng definierten Benchmarks verbessern. Dies birgt auch Risiken, die uns im Unternehmensumfeld wichtig sind: Kundenübergreifende Datenlecks, wenn Bibliotheken gemeinsam genutzt werden, veraltete oder fehlerhafte „Autorität durch Ähnlichkeit“ und Intransparenz („Warum tendierte das Modell zu diesem Ergebnis?“), die sich im Rahmen einer Prüfung nur schwer rechtfertigen lässt.

Wir verwenden diesen Ansatz einer globalen Beispiel-Fragen-Antworten-Datenbank für Perspectis AI nicht.

Zwei Klarstellungen (damit niemand unseren Ansatz mit einer weiteren Retrieval-Demo verwechselt)

  1. Konversationskontinuität – Wir integrieren den aktuellen Gesprächsverlauf (die letzten Gesprächsrunden und, falls erforderlich, Zusammenfassungen längerer Verläufe), damit der Assistent kohärent bleibt. Es handelt sich dabei um die eigene Konversation des Kunden, nicht um eine Sammlung von vorgefertigten Fragen-Antworten-Beispielen fremder Nutzer.

  2. Organisationsdokumente – Sofern Integrationen dies zulassen, können wir die eigenen Dokumente der jeweiligen Organisation abrufen (z. B. aus einem angebundenen Dokumentensystem). Das sind zugelassene Kundeninhalte, keine öffentliche Sammlung von themenfremden Fragen und Antworten.


Wie wir stattdessen Genauigkeit erreichen (strukturell, nicht dekorativ)

1) Sicherheitsorientiertes Staging und Mandantenfähigkeit

Bevor ein Modell optimierte Sprache generiert, leiten wir Anfragen durch eine sicherheitsbewusste, organisationsbezogene Bearbeitung. Nicht jede Nachricht folgt einem einheitlichen „Nur-Chat“-Pfad: Wir können für sprachbasierte Abläufe, spezialisierte Produktbereiche oder Muster, die eine strukturierte Kontextabkürzung erfordern, verzweigen.

Warum das wichtig ist: Genauigkeit beginnt mit der richtigen Abgrenzung – für wen der Assistent agiert und welche Daten und Tools relevant sind.

2) Klare Anweisungen und ehrliche Klassifizierung

Wir geben dem Modell stabile Rollenanweisungen und klassifizieren, ob eine Frage primär Zeiterfassung und Abrechnung oder eher allgemeine Unterstützung betrifft – und passen das Briefing entsprechend an. Für Aufgaben im Hintergrund (z. B. die Zuordnung zu einer Funktionsfamilie oder die Auswahl von Recherchequellen) benötigen wir häufig streng maschinenlesbare Ausgaben, damit die nachfolgende Logik dem Ergebnis vertrauen kann.

Warum das wichtig ist: Das Modell trifft kritische Routing-Entscheidungen ohne Einschränkungen seltener frei nach Belieben.

3) Fundierung auf operative Kundendaten – nicht auf Beispiele von Fremden

Bei arbeitsbezogenen Fragen beziehen wir relevante interne Kontextinformationen ein (z. B. Zeiteinträge, Kalendersignale, Abrechnungsdaten, gegebenenfalls Kunden- und Projektkontext). Dabei berücksichtigen wir Relevanz und Aktualität – und nicht etwa „den ähnlichsten Chatverlauf aus dem Internet“.

Warum das wichtig ist: Antworten sind nachvollziehbar, weil sie auf zulässigen operativen Fakten basieren und nicht auf anonymen Beispielen.

4) Regelbasierte Vorlagen- und Richtlinienauswahl (sofern Vorlagen vorhanden sind)

Wo wir strukturierte Formulierungsoptionen anbieten (z. B. für Zeiterfassungsbeschreibungen), wählen wir anhand transparenter Regeln (Branchenpassung, Aktivitätstyp, DetAIllierungsgrad) aus – nicht durch Ähnlichkeitssuche in einer globalen Fragen-und-Antworten-Sammlung.

Warum das wichtig ist: Vorhersehbares Verhalten ist in Compliance-relevanten Arbeitsabläufen überraschenden „kreativen“ Alternativen vorzuziehen.

5) Strukturierte Ausgaben und registrierte Funktionen

Wenn die Automatisierung aktiv werden muss, definieren wir Ausgabeformen, die die Plattform verarbeiten kann, und verknüpfen Aktionspfade mit registrierten Funktionen, die über Programmierschnittstellen (APIs) bereitgestellt werden – so bleiben „hilfreiche Texte“ und „sichere Ausführung“ aufeinander abgestimmt.

Warum das wichtig ist: Weniger Diskrepanzen zwischen dem, was ein Mensch liest und dem, was das System ausführt.

6) Intelligentes Routing: Interne Antworten, optionale Recherche, angemessene Tiefe

Nach der ersten Prüfung werden nicht alle Fragen gleich behandelt.

  • Interne Antworten stammen aus freigegebenen Kundendaten, wenn die Frage die Arbeit des jeweiligen Kunden betrifft.

  • Allgemeines Wissen kann weiterhin relevant sein, wenn die Frage nicht mandantenspezifisch ist.

  • Wenn neue externe Informationen benötigt werden, können wir Recherchepfade ausführen, die Quellen auswählen (z. B. Websuche, sofern konfiguriert, internes Wissen, kontextbezogene Quellen, verknüpfte Dokumente oder eine Kombination aus beidem) – anstatt immer das offene Web zu durchsuchen.

  • Bereitstellungsbeschränkungen können externe Quellen einschränken oder entfernen, sodass das Verhalten in abgeschotteten Umgebungen angemessen bleibt.

  • Komplexitätssignale können schwierigere Fragen an Konfigurationen mit tieferer Argumentation weiterleiten und gleichzeitig den Routineverkehr effizient halten.

Warum das wichtig ist: Für die jeweilige Frageart wird die richtige Art von Nachweis verwendet – ohne standardmäßig auf ein einziges, ungenaues Instrument zurückzugreifen.

7) Engineering-Disziplin: Szenarien, Referenzen und bewertete Natural Language-Testsuiten

Wir pflegen automatisierte Prüfungen, die strukturierte Assistentenausgaben und die Tool-Nutzung mit Referenz-API-Ergebnissen für wichtige Integrationspfade vergleichen. Zusätzlich verwenden wir umfassendere Natural Language-Regressionstests** mit Bewertungskriterien für die Assistentenqualität im großen Maßstab. Browserspezifische Risiken (Sitzungen, Streaming-Layouts) werden in separaten Frontend-Tests geprüft, da diese Trennung wichtig ist.

Warum das wichtig ist: Genauigkeit wird als kontinuierliche Eigenschaft des Systems betrachtet – nicht als einmalige Modellauswahl.


Vergleich auf einen Blick

Diese Tabelle dient der Kommunikation mit Stakeholdern. Die Formulierung ist bewusst allgemeinverständlich.

ThemaÄhnlichkeit zum Beispiel-Fragen-Antworten-Muster (häufig in einigen Demos)Wie Perspectis AI denselben Bedarf deckt
Primäre DatengrundlageAbgerufene Beispiele für Fragen und Antworten aus dem „nächsten Nachbarn“Zulässige Kundendaten, Gesprächsverlauf und registrierte Berechtigungen
PersonalisierungsmechanismusOftmals gepoolte oder anonymisierte BeispieldatenbankenMandantenbezogener Kontext und organisationseigene Dokumente, sofern aktiviert
Erklärbarkeit„Es sah aus wie diese früheren Fälle“Pipeline-Phasen, Klassifizierung und referenzbasierte Prüfungen, sofern zutreffend
RisikoprofilHöhere Sensibilität gegenüber Bibliothekszusammensetzung und DatenlecksIsolation-by-Design-Ansatz in unserer Sicherheitsstrategie; konservative Quellenauswahl
Automatisierte ÜbergabeManchmal unstrukturierter TextStrukturierte Ausgaben, die von Maschinen verarbeitet werden müssen
Aktuelle FaktenNicht garantiertOptionale Recherche-Pfade mit expliziter Quellenauswahl (sofern die Richtlinien dies zulassen)

Legende: Richtungsvergleich für Positionierung, keine wöchentliche Feature-Bewertung.


Bezug zu unserer Demo und Produktstory

In der Perspectis AI Demo-Umgebung machen wir Abstraktes konkret: Professionelle End-to-End-Szenarien (Abrechnung, Firewalls, Richtlinien für externe Anwälte, Messaging, Orchestrierung und mehr), die nur funktionieren, wenn Genauigkeit, Trennung und Verantwortlichkeit als Plattformeigenschaften behandelt werden – und nicht als einzelne Eingabeaufforderung, die einem Rohmodell hinzugefügt wird.


Quellen (extern, für weiterführende Informationen)

  • OWASP: Top 10 für große Sprachmodellanwendungen – Branchenkollegen verwenden diesen Ansatz zunehmend für die Eingabeaufforderung, übermäßige Handlungsfähigkeit und damit verbundene Risiken, die durch „cleveres Kontext-Stuffing“ allein nicht behoben werden können.
  • Anthropic (Kontext für Enterprise-Entwickler): Claude Managed Agents – Übersicht – zeigt, dass die implementierenden Teams häufig weiterhin die Richtlinien für die Managed-Agent-Umgebung festlegen, was unserem Fokus auf die Anwendungsebene entspricht.

Dieses Dokument richtet sich an externe, nicht-technische Leser. Maßgebliche Sicherheitsbewertungen und ImplementierungsdetAIls finden Sie in unserer internen Sicherheits- und Entwicklungsdokumentation.