Esta página é apresentada em inglês enquanto é preparada uma tradução revista para o seu idioma.
Por que tratamos a intenção agente como um contrato de governança, e não como um estado de espírito?
Uma perspectiva da Perspectis AI em linguagem simples: onde a intenção do agente se encAIxa na IA empresarial (política, identidade, ferramentas, observabilidade) — não apenas em prompts — e como pensamos sobre níveis de risco e injeção de prompts.
Uma nota em linguagem simples para líderes, responsáveis por riscos e equipes de clientes (abril de 2026)
Resposta curta
Os sistemas “agentes” estão em destaque: assistentes que planejam, acionam ferramentas e age com menos supervisão. Acreditamos que as ideias por trás dessa mudança merecem ser publicadas como uma perspectiva do setor — porque a questão difícil não é se os modelos podem parecer confiantes; é se uma organização pode defender quem tinha permissão para fazer o quê e por quê, quando algo dá errado ou quando um órgão regulador questiona.
O Perspectis AI foi desenvolvido para que a intenção (qual trabalho está sendo solicitado e sob cuja autoridade) seja expresso em locAIs desenvolvidos à governança — identidade, política, limites de ferramentas e observabilidade — e não apenas no prompt do modelo. É assim que alinhamos a energia de “assistente útil” com o dever de cuidado em ambientes profissionAIs.
O que nós queremos dizer com “intenção” em linguagem simples
Na linguagem cotidiana, intenção é simplesmente o objetivo de uma solicitação: “resumir este assunto”, “redigir um e-mAIl”, “criar uma fatura”, “executar uma verificação de conformidade”.
Em uma plataforma robusta, a intenção também é estrutural:
-
Quem iniciou o trabalho (uma pessoa, uma função, um serviço).
-
Qual capacidade tem permissão para ser executada (por exemplo, o caminho de Representante de Atendimento Pessoal versus uma tarefa em segundo plano).
-
Qual classe de ação está envolvida (ler registros versus alterá-los versus transferência de dinheiro versus administração irreversível).
Nada disso deve ser implícito apenas por meio de uma linguagem rebuscada em um chat. Nós tratamos isso como informação que a plataforma deve entender e aplicar — portanto, o modelo não é o único lugar onde existe uma “intenção”.
Por que a intenção não pode residir apenas dentro do modelo
Um modelo de linguagem amplo pode interpretar a linguagem; ele não pode, por si só, ser o sistema de registro para políticas de permissão, confidencialidade ou faturamento.
**Nós projetamos com base em um princípio simples: a governança pertence ao plano de aplicação e de dados, não apenas às instruções para um modelo.
Isso significa:
-
Verificações de política (recursos, funções, organizações) decidem se uma ação pode obrigação — mesmo que o modelo “concorde” com uma solicitação prejudicial ou confusa.
-
Registros de ferramentas e ações decidem quAIs são as capacidades existentes e qual o risco de cada uma; o modelo não pode inventar novos endpoints privilegiados por meio de texto persuasivo.
-
Barreiras de informação e controles semelhantes AInda se aplicam quando um assistente recupera ou resume material sensível — porque as regras de acesso não são negociáveis em linguagem natural.
Essa postura é como nós reduzimos toda uma classe de modos de falha em que uma resposta fluente parece autorizada, mas não é.
Como nós pensamos sobre risco sem sobrecarregar ninguém com jargões
Ações diferentes acarretam riscos diferentes no mundo real. Nós agrupamos essa ideia em uma escala prática que muitas equipes já regularam:
| Ideia simples | O que ela tende a significar nas operações |
| --- | --- |
| Leia | Consultar informações; AInda exige regras corretas de acesso e confidencialidade, mas não gera mudanças rigorosas por si só. |
| Agir (alterar dados) | Criar ou atualizar registros; exige responsabilidade clara e, frequentemente, uma etapa de confirmação em canAIs de mAIor risco. |
| Transacionar (dinheiro ou faturamento) | Trabalho financeiro ou relacionado a faturas; exige confirmação explícita e instruções rigorosas — porque erros se tornam eventos comerciAIs e de confiança. |
| Irreversível ou destrutivo | Operações de estilo administrativo ou difíceis de desfazer desativar os controles mAIs rigorosos — e, em nossa linha de design, não queremos que esse tipo de trabalho seja executado silenciosamente pelos canAIs de interação mAIs arriscados, como a voz, sem salvaguardas adicionAIs.
Além do risco de ação, também nos preocupamos com os padrões de intervenção humana no nível do produto: onde um humano precisa aprovar, onde um humano monitora e pode intervir e onde a autonomia é intencionalmente limitada. Isso não é burocracia pela burocracia; é como organizações regulamentadas e sensíveis à confiança operam com base em evidências.
Injeção de prompts e comportamento “emergente”: o que realmente importa
A injeção de prompts (tentativa de sequestrar ou confundir um assistente com texto malicioso) é uma preocupação conhecida do setor. Levamos isso a sério e somos honestos ao afirmar que nenhum filtro de texto é uma varinha mágica.
O que nós enfatizamos para os clientes é uma estratégia de defesa em profundidade:
-
Mitigação no limite do modelo (detecção, higienização, registro) reduz a quantidade de texto malicioso que chega ao modelo sem alterações.
-
Controles rígidos no software AInda determinam se as ferramentas são executadas, se o dinheiro é movimentado ou se os dados restritos são retornados — portanto, um modelo manipulado não se torna uma subversão silenciosa da política corporativa.
Essa combinação é como nós falamos sobre segurança sem fingir que o modelo é infalível.
Comparação em resumo (estrutural, não uma avaliação semanal de recursos)
**Esta tabela foi criada para conversas com as partes interessadas — posicionamento, não uma comparação de itens. Os produtos mudam rapidamente; a intenção da arquitetura muda mAIs lentamente.
| Tópico | Perspectis AI (como nós construímos) | Experiências típicas de bate-papo do consumidor | Conjuntos de modelos e ferramentas construídos pela organização |
| --- | ---: | ---: | ---: |
| Onde a intenção deve residir | Identidade, política, registros, operações estruturadas, observabilidade | Principalmente na conversa | O que cada equipe implementa |
| Quem é responsável pela aplicação | A camada da plataforma que implementamos e evoluímos | O produto do fornecedor + as escolhas de administração do locatário | As equipes de engenharia e segurança da organização que adotam |
| Trabalho irreversível e que envolve transferência de recursos | Enquadramento explícito de riscos, confirmações, restrições de canal em nossa direção | Frequentemente fóruns de escopo ou genéricos | Totalmente personalizado — poderoso e com grande responsabilidade |
| Protocolo e ferramentas de contexto do modelo | Nós tratamos as ferramentas como capacidades governadas, não como superpoderes silenciosos | Variação de acordo com o produto | Depende inteiramente da qualidade da correção |
| História dos auditórios | Projetado para “quem foi acordado o quê e por quê” como uma preocupação da plataforma | Varia; geralmente mAIs leve | Totalmente personalizado |
| Melhor modelo mental em uma linha | Assistente governado dentro de uma plataforma operacional | Superfície conversacional útil | Conjunto de agentes personalizados |
Por que nós publicamos esse tipo de perspectiva
Nossos clientes não estão comprando apenas “um recurso de IA”. O verdadeiro compromisso é com a operação defensável: continuidade, segregação de funções e uma narrativa que se sustenta quando algo falha. Nós investimos em uma abordagem pública e em linguagem simples — juntamente com material técnico mAIs aprofundado para profissionAIs de segurança e arquitetura — porque nossos clientes merecem clareza sobre o que é marketing versus o que é estrutural.
O Ambiente de Demonstração de IA da Perspectis existe em parte para tornar essa diferença tangível: não uma única demonstração sofisticada, mas um amplo catálogo de cenários realistas onde intenção, política e fluxo de trabalho se mostram como preocupações de primeira classe.
Fontes (externas, para contexto geral do setor)
-
OWASP: OWASP Top 10 para Aplicações de Modelos de Linguagem de Grande Porte
-
NIST: Estrutura de Gerenciamento de Riscos de Inteligência Artificial (AI RMF 1.0)
Este documento foi escrito para leitores externos e não técnicos. Avaliações técnicas mAIs aprofundadas sobre controles, status de implementação e evidências estão disponíveis em nossa documentos de segurança e arquitetura para clientes e auditores.

