Cette page s'affiche en anglais pendant qu'une traduction révisée pour votre langue est préparée.

Trois questions qui distinguent le combat médiatique autour de l'IA de la responsabilité en matière d'IA

Une perspective clAIre de Perspectis AI à destination des dirigeants : reconstruction, explicabilité sans franchiser les barrières de confidentialité et ce que signifie la relecture en pratique – y compris ce que nous ne promettons pas.

Notre vision de l'explicabilité chez Perspectis AI – Note en langage clAIr à l'attention des dirigeants, des responsables de la conformité et des équipes clients (avril 2026)


En bref

les organisations déploient des assistants et des agents en complément des tâches opérationnelles (facturation, gestion des périmètres clients, conformité, opérations), trois questions lorsque reviennent sans cesse. Nous les considérons comme des exigences de conception, et non comme des notes de bas de page :

  1. Pouvons-nous reconstituer a posteriori le comportement d'un système ?

  2. Pouvons-nous expliquer les résultats sans divulguer d'informations confidentielles ?

  3. Sommes-nous clAIrs sur ce que signifie la « relecture » et sur ses limites ?

Si ces questions trouvent des réponses précises, étayées par des processus et une architecture, l'IA cesse d'être une boîte noire « parfois utile » et devient une solution justifiable face à l'examen. Dans le cas contrAIre, même un modèle brillant peut devenir un handicap dès le premier incident public.

Cette note présente notre point de vue : comment nous abordons ces questions, ce vers quoi nous tendons chez Perspectis AI, et où se situent les limites de la transparence afin que nos clients puissent étudier la maturité de nos solutions sans se lAIsser influencer par le marketing.


Pourquoi c'est important aujourd'hui

Les organismes de réglementation, les conseils d'administration, les assureurs et les clients demandent la même chose, formulée différemment : des preuves. Non pas une capture d'écran d'une conversation, mAIs un récit concret : ce qui a été décidé, sur quelle base, dans quelles conditions, et qui étAIt responsable lorsque les enjeux étAIent importants.

C'est particulièrement vrAI lorsque l'intervention humAIne n'est pas un simple atout, mAIs une obligation de diligence : les services professionnels, les secteurs réglementés et toute organisation où l'affirmation « le modèle l'a dit » n'est pas une réponse acceptable.


Question 1 : Pouvons-nous reconstituer pourquoi une action spécifique a eu lieu ?

Ce que les gens veulent vrAIment dire

Plus tard – lors d'un audit, d'une demande client ou d'un contrôle qualité interne – il faudra répondre à la question : Qu'a observé le système ? À quelles conclusions est-il parvenu ? Quel récit repose sur ces éléments ? C'est ce qu'on appelle la reconstruction, et non une simple intuition.

Un bon exemple de ce à quoi ressemble un système performant

Les utilisateurs expérimentés attendent des artefacts structurés : entrées (ou résumés fidèles), sorties, niveau de confiance lorsqu'il existe, horodatage et une explication en langage clAIr compréhensible par un non-spécialiste. Ils attendent également des traces adjacentes : les outils ou intégrations utilisés, le succès ou l'échec de l'opération et la manière dont une personne a réagi lorsqu'une approbation étAIt requise.

Notre approche chez Perspectis AI

Nous concevons Perspectis AI de manière à ce que les décisions importantes soient consignées dans un enregistrement de décision : contexte d'entrée, données de sortie, texte explicatif, niveau de confiance, état du cycle de vie et possibilité de retour humAIn lorsque les utilisateurs acceptent, refusent ou corrigent une recommandation.

Parallèlement, nous considérons le parcours du représentant de l'agent personnel comme un système d'enregistrement de qualité conversationnelle lorsque la persistance est activée : les sessions et les messages peuvent être stockés avec suffisamment de métadonnées pour corréler un échange avec une consultation ultérieure, y compris les modèles de nouvelle tentative sécurisées où les clients renvoient le même message logique.

Pour les outils, nous investissons également dans une journalisation de type audit pour les actions enregistrées : qui étAIt l'acteur, quelle fonctionnalité a été utilisée, les paramètres et les résultats le cas échéant, et le moment de l'enregistrement. AInsi, « ce qui s'est passé sur le réseau » n'est pas reconstitué de mémoire.

Enfin, nous relie le « pourquoi » au contexte métier où le produit s'intègre en profondeur : parcours, perspectives et entretiens structurés dans des flux de travAIl professionnels. AInsi, le jugement humAIn qualitatif peut compléter aux recommandations de la machine au lieu de remplacer entièrement la documentation.

Limite de la transparence : la reconstitution n'est fiable que si le chemin d'instrumentation est bien intégré. Toute fonctionnalité non encore intégrée à ces modèles représente une lacune que nous suivons comme toute autre dette produit, et non un problème que nous masquons par des affirmations génériques.


Question 2 : Peut-on expliquer les résultats sans enfreindre les règles éthiques ni les règles de confidentialité ?

Ce que les gens veulent vrAIment dire

Les équipes doivent dire la vérité sur le fonctionnement du système sans divulguer l'identité des clients, les informations confidentielles, les notes stratégiques internes, ni aucune information protégée par une barrière d'information (« mur ») que l'entreprise s'est engagée à respecter.

Un bon comportement

Les contrôles doivent être de type refuser par défaut lorsque cela est approprié : si une explication nécessite de consulter des informations relatives à un rôle donné n'a pas accès, le système doit refuser, filtrer ou substituer les données, et non pas « fAIre de son mieux » et lAIsser fuiter des informations.

Notre approche chez Perspectis AI

Nous mettons en œuvre un comportement prenant en compte les barrières de confidentialité dans les processus de génération de données sensibles : lorsqu’une politique exige qu’une explication automatisée franchise une limite, nous privilégions le blocage ou le remplacement du rAIsonnement sensible par un texte de substitution explicite et anonymisé, plutôt que de risquer d’insérer des informations confidentielles dans un journal ou une interface utilisateur.

Nous mAIntenons également des services de confidentialité pour les données décisionnelles (niveaux, motifs, contrôles d’autorisation et filtrage), permettant à l’Insi aux organisations d’adapter leur niveau d’exposition à leur politique à mesure que les surfaces d’exposition évoluent.

Limite de confidentialité : les moteurs de politiques fonctionnant uniquement si chaque processus renvoyant du texte ou enregistrant des événements utilise exclusivement les mêmes points d'ancrage. Nous considérons les « câblages partiels » comme un risque d’ingénierie normal et nous les expliquons à nos clients afin que leurs attentes restent réalistes.


Question 3 : Que signifie « relecture » et que ne faut-il surtout pas promettre ?

Ce que les gens entendent vrAIment par là

CertAIns acteurs, lorsqu'ils entendent « relecture », imaginent un voyage dans le temps : exécuter à nouveau le modèle, obtenir le même libellé, prouver qu'aucune dérive n'a été constatée. D’autres y voient quelque chose de plus concret : absence d’effets secondAIresAIres dupliqués lorsqu’un réseau relance la même requête, et historique complet pour vérification.

Ce qu'est une bonne pratique

Nous estimons qu'une relecture pratique constitue le critère adéquat pour des opérations responsables :

  • Relecture pour vérification : enregistrements permettant à tout réviseur autorisé de consulter les décisions prises, leurs rAIsons et leur date, sans avoir à réexécuter le modèle.

  • Relecture opérationnelle : idempotence afin qu'une même tâche logique ou clé de message ne génère pas de duplication de travAIl lorsque des clients ou des fichiers d'attente relancent le système.

Nous ne**promettons pas de régénération à l'identique des jetons à partir de grands modèles de langage comme simple primitive de conformité. La température, le contexte de récupération et le comportement du fournisseur peuvent tous influencer les résultats. Notre approche de responsabilité repose sur des enregistrements, des points de contrôle et des mécanismes de validation, et non sur l'illusion que le modèle se résume à une simple formule de tableau.


En bref : ce que nous optimisations

Ce tableau est destiné à un usage interne et aux échanges avec nos clients. Le langage reste volontAIrement non technique.

| Thème | Ce que beaucoup d'équipes souhAItent voir se réaliser | Ce que nous considérons comme la norme |

| --- | --- | --- |

| Reconstruction | « La conversation suffit. » | Contexte décisionnel structuré, retours humAIns le cas échéant, traces d'outils et enregistrements de conversations durables lorsque la persistance est activée. |

| Explication sécurisée | « Le modèle s'autocensure. » | Contrôles de sécurité explicites et mécanismes de nettoyage des données sensibles ; services de confidentialité pour les données décisionnelles, le cas échéant. |

| Relecture | « Relancez ; même résultat. » | Enregistrements + tentatives idempotentes pour la traçabilité ; aucune promesse de texte généré identique à la demande. |

| Position de gouvernance | « FAItes-nous confiance. » | Position d'explicabilité enregistrée pour les systèmes d'IA (par exemple, classifications complète, partielle ou opaque dans nos documents de gouvernance), mise en évidence lorsque les fonctionnalités d'observabilité précisent le niveau de transparence souhAIté pour un composant donné – et non chaque phrase en anglAIs qu'il pourrAIt contient. |


Lien avec le produit que nous livrons

Perspectis AI n'est pas une simple fenêtre de discussion ambitieuse. Nous concevons ChatWindow comme une interface de continuité entre les modalités, et nous l'associations à des modèles d'assistant plus approfondis – notamment les fonctions Agent personnel et Assistant personnel de direction – afin que les approbations humAInes, les cartes proactives et les actions sensibles restent des priorités essentielles.

L'environnement de démonstration d'IA de Perspectis a notamment pour mAIs de concrétiser ce concept : des scénarios professionnels détAIllés (facturation, cloisonnement, directives des avocats externes, observabilité, etc.) nous permettent de démontrer que la gouvernance et la profondeur des flux de travAIl sont des fonctionnalités du produit, et non de simples promesses.


Conclusion en toute transparence

Nous sommes enthousiastes quant aux capacités du modèle, mAIs prudents quant à nos affirmations. L'explicabilité est une discipline de gestion et d'ingénierie : l'instrumentation, le contrôle d'accès, la politique de conservation et la culture de la révision doivent progresser de concert.

Si nous commettons une erreur, ce sera au niveau de la couverture (un chemin non encore instrumenté) ou de la cohérence (une surface n'utilisant pas encore toutes les portes d'accès), et non parce que nous avons oublié l'importance de la responsabilité.


Sources (externes, pour le contexte – il ne s'agit pas de comparAIsons entre fournisseurs)


Ce document est destiné à un public externe non technique. Des évaluations techniques plus approfondies et l'état d'avancement de la mise en œuvre sont disponibles dans notre documentation interne relative à la sécurité et à l'ingénierie.