IA
Foto: Reprodução / LinkedIn

A adoção de Large Language Models (LLMs) por instituições dos mais diversos segmentos está acelerando de forma exponencial, impulsionada pela busca por eficiência, redução de custos e novas capacidades de atendimento, automação e análise de dados. No entanto, essa adoção traz desafios significativos relacionados à regulação, governança, supervisão humana, controle de riscos e conformidade com normas emergentes como o EU AI Act e diretrizes de Model Risk Management.

Este artigo explora os principais elementos que instituições financeiras – bem como dos demais segmentos – precisam considerar para garantir o uso seguro, ético e responsável de LLMs, abordando riscos operacionais, reputacionais e regulatórios, frameworks de controle, práticas de governança, além de diretrizes para implementação de processos robustos que sustentem a inovação sem comprometer a segurança. O objetivo é fornecer um panorama claro, prático e acionável para executivos e líderes de tecnologia, inovação e negócios.

1. Introdução

Nos últimos anos, a Inteligência Artificial evoluiu de forma acelerada, impulsionada principalmente por modelos de linguagem de grande porte (LLMs), capazes de interpretar, gerar e transformar informações com alto nível de fluidez e contexto. Para instituições financeiras – organizações tradicionalmente intensivas em dados, processos estruturados e requisitos regulatórios rigorosos – os LLMs representam tanto uma oportunidade transformacional quanto uma fonte emergente de riscos complexos.

Diante desse cenário, temas como regulação, governança e Model Risk Management (MRM) deixam de ser questões técnicas e passam a ocupar um papel estratégico no board, nos comitês de risco, nos laboratórios de inovação e nas áreas de tecnologia. O desafio central não é apenas implementar LLMs, mas fazê-lo de forma segura, auditável, confiável e alinhada aos padrões regulatórios nacionais e internacionais. Este artigo explora exatamente esse ponto: como garantir que a inovação avance sem comprometer a integridade do sistema financeiro.

2. A nova fronteira regulatória dos LLMs

A regulamentação da IA está rapidamente evoluindo em diversas jurisdições. Embora o Brasil ainda não tenha publicado uma lei definitiva, há diretrizes sendo estudadas pelo Banco Central, pelo Conselho Monetário Nacional e pelo Congresso. No cenário global, o AI Act da União Europeia destaca-se como referência ao estabelecer categorias de risco, exigências de transparência, mitigação de vieses, documentação técnica, supervisão humana e governança robusta.

Instituições financeiras, por operarem em setores críticos, tendem a ser classificadas como usuárias ou provedoras de sistemas de “alto risco”, o que exige processos mais rigorosos. Isso inclui:

●     Documentação completa do ciclo de vida do modelo;

●     Registro de datasets e critérios de treinamento;

●     Monitoramento contínuo de performance e vieses;

●     Avaliação de impacto em direitos fundamentais;

● Transparência sobre limitações do modelo.

Portanto, mesmo antes da regulação brasileira avançar, empresas que implementam LLMs devem se antecipar e estruturar processos sólidos de compliance técnico.

3. Governança de IA: o alicerce para uso seguro e escalável

A governança de IA é o conjunto de práticas, controles, políticas e responsabilidades que garantem que modelos sejam utilizados de forma ética, segura e alinhada aos objetivos estratégicos. Em instituições financeiras, a governança atua como guardrail que evita danos reputacionais, operacionais e regulatórios.

Uma estrutura de governança eficaz para LLMs deve incluir:

a) Política corporativa de IA

Define responsabilidades, limites de uso, papéis, obrigações de auditoria e diretrizes de privacidade. Essa política deve estar conectada ao compliance, jurídico, tecnologia, segurança da informação e riscos.

b) Comitê de IA

Um corpo multidisciplinar que avalia, aprova e acompanha iniciativas que utilizam modelos de IA, incluindo LLMs.

c) Estrutura de supervisão humana

Nenhum LLM deve operar sem um processo claro de “Human-on-the-loop”. Supervisão humana é exigida por reguladores e garante responsabilidade final nas decisões.

d) Transparência e rastreabilidade

Cada output gerado por um LLM deve ser explicável, rastreável e auditável. Isso exige logs, versionamento de modelos, registro de prompts e monitoramento ativo.

4. Model Risk Management (MRM) aplicado a LLMs

Modelos tradicionais (regressões, árvores de decisão, redes neurais supervisionadas) já são abrangidos há anos por frameworks de Model Risk Management, como SR 11-7, Bacen e Basileia. Com a chegada dos LLMs, esse framework se expande significativamente.

E por quê?

Porque LLMs apresentam riscos distintos e muito mais difíceis de controlar, como:

Alucinações (respostas convincentes, porém incorretas);

Vieses escondidos no treinamento;

Generalização excessiva ou respostas fora de escopo;

Riscos linguísticos, já que interpretação depende do prompt;

Fuga de dados se o modelo aprender ou expor informações sensíveis;

●     Inconsistência entre execuções devido ao comportamento estocástico.

Assim, o MRM para LLMs precisa incluir etapas específicas:

1. Classificação do risco do modelo

Determinar criticidade: atendimento, crédito, PLD/FT, jurídico, operações. Quanto maior o impacto, maior a exigência de controles.

2. Validação independente

Revisão técnica feita por equipes separadas da área implementadora. A validação inclui stress tests, análise de vieses, consistência e robustez.

3. Monitoramento contínuo

LLMs mudam com o tempo (drift), exigindo indicadores como:

● Taxa de alucinação

● Consistência de respostas

● Sensibilidade ao prompt

● Tempo de resposta

●     Acurácia para cenários críticos

4. Segurança e privacidade

Controles contra vazamento de dados, proteção de PII e uso inadequado. Sandbox e ambientes isolados são práticas recomendadas.

5. Documentação completa

Prompts, datasets, versionamento, riscos identificados, testes, limitações, tudo deve ser registrado e auditável.

5. Exemplos práticos de aplicação e riscos reais

A seguir, alguns cenários que mostram a importância da governança:

Caso 1: Atendimento automatizado sem supervisão

Um LLM treinado para atendimento poderia orientar um cliente sobre renegociação de dívida de forma incorreta, gerando prejuízo financeiro e passivos legais.

Caso 2: Análise de crédito assistida por LLM

O modelo pode sugerir decisões enviesadas com base em padrões presentes nos dados históricos, violando regras de fair lending.

Caso 3: Relatórios internos gerados automaticamente

Alucinações podem introduzir erros graves em documentos de risco, compliance ou auditoria.

Em todos esses casos, governança e MRM robustos mitigam incidentes.

6. Oportunidades estratégicas

Apesar dos riscos, o potencial é enorme. Instituições financeiras que estruturarem governança e MRM adequados podem:

● Ampliar produtividade de equipes de operações, jurídico, produto e atendimento

● Reduzir custos operacionais

● Acelerar time-to-market

● Criar agentes internos especializados e confiáveis

● Aumentar a qualidade de documentação, código, processos e análise de dados

●     Oferecer experiências inovadoras ao cliente

A chave está no equilíbrio entre inovação e responsabilidade.

Conclusão

A adoção de LLMs em instituições financeiras marca uma nova era, repleta de oportunidades, mas também permeada por riscos complexos. Governança, regulação e Model Risk Management não são obstáculos à inovação, mas são habilitadores que garantem que a IA seja implementada de forma segura, transparente e sustentável.

Executivos que compreenderem esse equilíbrio estarão à frente: liderando organizações que inovam com velocidade, mas com responsabilidade. O futuro do setor financeiro não será definido apenas por quem adota IA, mas por quem a adota com maturidade, confiança e governança sólida.

Mateus Casanova

Head Inovação, Inteligência Artificial, Open Finance, Ativos Digitais e Drex na Unicred Brasil

Executivo de Tecnologia, Inovação e Produtos com mais de 20 anos de experiência, especializado em transformação digital no setor financeiro. Atualmente, lidera iniciativas estratégicas em Inovação, Drex e Inteligência Artificial na Unicred Brasil, com foco em promover inovação, eficiência operacional e o desenvolvimento de produtos financeiros digitais de alto impacto.

Executivo de Tecnologia, Inovação e Produtos com mais de 20 anos de experiência, especializado em transformação digital no setor financeiro. Atualmente, lidera iniciativas estratégicas em Inovação, Drex e Inteligência Artificial na Unicred Brasil, com foco em promover inovação, eficiência operacional e o desenvolvimento de produtos financeiros digitais de alto impacto.