Diese Seite wird auf Englisch angezeigt, während eine geprüfte Übersetzung für Ihre Sprache vorbereitet wird.
Warum wir den Menschen im Regelkreis als Plattformdesign und nicht als Slogan betrachten
Eine leicht verständliche Perspektive von Perspectis AI: Menschliche Interaktion als workflownative Genehmigungen, Compliance-Signale, Leitplanken für Assistentenaktionen und nicht verhandelbare Plattformkontrollen – nicht nur Chat-Bestätigungen.
Ein Leitfaden in einfacher Sprache für Führungskräfte, Kunden und Teams (April 2026)
Die Kurzfassung
Einbindung des Menschen ist leicht gesagt, aber schwer umzusetzen. Viele Produkte suggerieren Kontrolle durch ein oder zwei Bestätigungsdialoge. Wir haben Perspectis AI so entwickelt, dass sinnvolle Pausen – für Genehmigungen, Compliance-Prüfungen und wichtige Aktionen des Assistenten – Teil der Architektur sind wie Mandantenfähigkeit, Tools und Auditierbarkeit: kein Aufkleber über einem Chatfenster.
Das ist wichtig, denn professionelle Organisationen werden nicht allein für ihre Absicht anerkannt. In Umgebungen mit Sorgfaltspflicht benötigen sie dauerhafte Nachweise darüber, wer was unter welcher Richtlinie und bei möglichen externen Auswirkungen genehmigt hat.
Was „Human-in-the-Loop“ im Markt üblicherweise bedeutet (zu Recht)
| Muster | Was es oft ist | Wo es gut ist | Wo es unter Druck an seine Grenzen stößt |
|---|
Chat-Bestätigungen | Ein Modell fragt vor dem Senden einer Nachricht nach einem „Ja“ | Leichte Leitplanken in Gesprächsabläufen | Schwer zu Rollen, Aufgabentrennung oder Workflow-Status systemübergreifend abzubilden |
Agenten-„Genehmigungen“ | Tool-Aufrufe, die zur Bestätigung durch einen Bediener pausieren | Sichereres Experimentieren in kontrollierten Laufzeitumgebungen | Richtlinien befinden sich weiterhin größtenteils in jeder integrierenden Anwendung – nicht immer in der Semantik des Unternehmens-Workflows |
Richtliniendokumente | Schriftliche Standards für die menschliche Überprüfung | Definiert Erwartungen an die Nutzer | Erzwingt nicht von sich aus Verhalten über verschiedene Kanäle (Web, Sprache, Integrationen) hinweg |
Nichts davon ist „falsch“. Es handelt sich um unterschiedliche Ebenen des Systems. Wir investieren in die Ebene, auf der professionelle Arbeit tatsächlich stattfindet: Abrechnungs- und Einreichungsprozesse, Compliance-Signale, Assistentenaktionen, die Kalender und ausgehende Kommunikation beeinflussen können, und Governance, die nicht vorgibt, dass eine clevere Eingabeaufforderung Berechtigungen außer Kraft setzen kann.
Wie wir die menschliche Interaktion in Perspectis AI verstehen (einfach erklärt)
Dies sind die bewährten Konzepte, die wir mit Kunden und in unseren Perspectis AI Demo-Umgebungsszenarien anwenden – keine vollständige Funktionsliste, sondern die Struktur der Plattform.
1) Workflow-native Genehmigungen, nicht nur „modellhafte Höflichkeit“
Manche Aufgaben sollten nicht ohne eine im Kontext dokumentierte menschliche Entscheidung fortgesetzt werden: beispielsweise Prozesse im Zusammenhang mit Zeiterfassung und Rechnungsstellung, bei denen Unternehmen eine ausdrückliche Genehmigung vor der endgültigen Übergabe erwarten. Wir betrachten dies als Workflow-Status, nicht als einmalige Chat-Antwort.
2) Compliance-basierte Prüfung ist ein wichtiges Signal.
Wenn Compliance-Regeln ein wesentliches Risiko kennzeichnen, zeigt die Plattform eine Prüfung an und **fordert, sofern konfiguriert, Genehmigungswege an, die dem Schweregrad entsprechen – damit die „Automatisierung“ nicht stillschweigend berufliche Pflichten untergräbt.
3) Entscheidungssteuerung für sensible Kategorien.
Bestimmte Kategorien automatisierter Entscheidungsergebnisse werden in unserem lernenden Entscheidungssystem als nie automatisch genehmigt behandelt (z. B. Rechnungsfreigabe, Compliance-Verstoß und Sicherheitswarnungen in unseren internen Richtlinien). Andere Ergebnisse werden nur dann automatisch genehmigt, wenn Vertrauen und Präferenzen übereinstimmen – und einige Ergebnisse können blockiert werden, wenn die Regeln „Nein“ vorsehen.
4) Aktionen des Executive Personal Assistant mit echten Sicherheitsvorkehrungen
Unser Executive Personal Assistant verknüpft die Funktionen des Personal Agent Representative mit Aktionen, die als riskant gelten: Meetings koordinieren, ausgehende Korrespondenz verfassen und ähnliche Aufgaben. Wir kombinieren Richtlinien (was eine Bestätigung erfordert), Vertrauensbewertung (wann das System keine Gewissheit vortäuschen sollte) und Schutzmechanismen (z. B. Einschränkungen der Autonomie im Notfall und sinnvolle Ratensteuerung), damit „Unterstützung“ nicht zu unerwünschten Nebenwirkungen führt.
5) Sprache und Tools: Sicherheitsklassifizierung statt Intuition
Bei sprachgesteuerten Prozessen behandeln wir irreversible Aktionen als nicht zulässig für diesen Kanal und fordern eine explizite Bestätigung für nicht gelesene Aktionen im Sprachbefehlspfad an – da gesprochene Sprache ein hohes Risiko für Fehlausführungen birgt.
6) Governance wird nicht in der Eingabeaufforderung gespeichert
Berechtigungen, Toolverfügbarkeit, Informationsbarrieren („Walls“) und Funktionskontrollen werden auf der Anwendungsebene durchgesetzt. Dies ist eine bewusste Vorgehensweise: Eingabeaufforderungen und geschickte Formulierungen können keine Autorität verleihen, die die Plattform nicht zugewiesen hat.
Vergleich auf einen Blick
Richtungsrahmen für Stakeholder-Gespräche – keine wöchentliche Funktionsübersicht.
| Thema | Perspectis AI-Positionierung | Typische Chat-First-Assistenten | Allgemeine Agenten-Frameworks |
| --- | ---: | ---: | ---: |
Schwerpunkt | Unternehmens-Workflows + Verantwortlichkeit + KI | Gesprächsqualität + einfache Leitplanken | Ausführungsschleifen + Tools für Entwickler |
Einbindung des Menschen in den Regelkreis | Mehrere operative Oberflächen (Abrechnungspfade, Compliance, Assistentenaktionen, Sprachsicherheitsklassifizierung) | Oftmals dialogbasierte Bestätigungen | Abhängig von den jeweiligen Produktintegrationen |
Rollen- und Aufgabentrennung | Ausgerichtet auf organisatorische Muster (z. B. Genehmigerlisten, rollenbasierte Problemlösung, sofern implementiert) | Oftmals Einzelbenutzer | Neutral: Die anwendenden Teams setzen die Richtlinie um |
Nachweisführung | Ausgerichtet auf Prüfbarkeit und Kontrollen | Variiert stark | Variiert stark |
Risiko: „Einfach drumherum fragen“ | Wir behandeln sensible Kontrollen auf Plattformebene als unverhandelbar | Modellabhängig | Abhängig von der Durchsetzung in der jeweiligen Anwendung |
Warum dies wichtig ist (Vordenkerrolle statt Angstmacherei)
Regulierte und reputationssensible Branchen haben genug von Autonomie-Theater: Demos, die so lange magisch aussehen, bis jemand nach dem Genehmigungsprotokoll fragt. Wir sind überzeugt, dass die nächste Herausforderung ehrliche, operative KI sein wird: Systeme, die wissen, wo Menschen weiterhin Verantwortung tragen müssen und diese Grenzen auch bei sich ändernden Modellen stabil halten.
Deshalb kombinieren wir die Einbindung des Menschen mit einer Integrationsdisziplin nach dem Model Context Protocol und einem nutzerorientierten Design: Autonomie ohne Verantwortlichkeit ist im Umgang mit professioneller Sorgfaltspflicht nicht haltbar.
Quellen (öffentliche Referenzen, die wir für Rahmenwerke, nicht für Produktangaben, zitieren)
- National Institute of Standards and Technology: Artificial Intelligence Risk Management Framework (AI RMF 1.0)
- Internationale Organisation für Normung: ISO/IEC 42001 — Managementsystem für künstliche Intelligenz
- Europäische Kommission (Portal für digitale Strategie): Europäischer Ansatz für künstliche Intelligenz
Dieses Dokument richtet sich an externe, nicht-technische Leser. DetAIllierte technische Bewertungen, anwendungsspezifische Kontrollen und Nachweisdokumente werden Kunden und Partnern im Rahmen der entsprechenden Vereinbarungen zur Verfügung gestellt – nicht als Fußnoten in diesem Blog.

