
A corrida por eficiência via IA chegou a um novo ponto de tensão nos bancos. Uma pesquisa da DeepL revelou que 65% dos profissionais financeiros do Reino Unido admitem usar ferramentas de IA não aprovadas no trabalho, um movimento conhecido como “IA paralela” (shadow AI), que expõe o setor a novos riscos de vazamento de dados e falhas regulatórias.
O estudo indica que 70% dos entrevistados percebem ganhos de produtividade e atendimento ao cliente graças à IA, e que 37% das interações bancárias já são impulsionadas por sistemas inteligentes, com destaque para tradução automática, chatbots e monitoramento antifraude.
Mas a ausência de políticas internas e soluções corporativas adequadas tem levado muitos funcionários a usar ferramentas públicas, como tradutores automáticos e assistentes genéricos, fora do controle das áreas de TI.
“Essas plataformas passam a sensação de uma conversa privada, mas tudo o que é digitado nelas é compartilhado com a empresa por trás do chatbot”, alerta Mantas Sabeckis, pesquisador da Cybernews, segundo o “Finextra”.
Falta de estrutura alimenta a “IA paralela”
O fenômeno, segundo a DeepL, nasce da lacuna entre necessidade e infraestrutura. Em muitos bancos, as equipes de atendimento não têm acesso a soluções seguras e acabam recorrendo a ferramentas externas.
“Nos serviços financeiros, onde cada interação é altamente regulamentada, os funcionários buscarão alternativas se as ferramentas oficiais não atenderem às suas necessidades”, explica David Parry-Jones, diretor de receita da DeepL.
A recomendação das consultorias é clara: TI e áreas de negócio precisam trabalhar juntas para oferecer soluções seguras e eficientes de IA antes que a “IA paralela” se torne um risco institucional.