Reprodução: Hard News
Reprodução: Hard News

O governo britânico anunciou parceria com a Microsoft para desenvolver um sistema nacional de detecção de deepfakes. A iniciativa reunirá especialistas em tecnologia, acadêmicos e empresas para estabelecer padrões consistentes de identificação de conteúdo manipulado por inteligência artificial, incluindo vídeos, áudios e imagens falsificadas.

A ministra de Tecnologia, Liz Kendall, classificou deepfakes como “armas usadas por criminosos para fraudar o público, explorar mulheres e meninas, e minar a confiança no que vemos e ouvimos”. Segundo o portal Finextra, a decisão surgiu após o número de deepfakes compartilhados saltar de 500 mil em 2023 para impressionantes 8 milhões em 2025.

Framework testará tecnologias contra ameaças reais

O framework de avaliação permitirá testar diferentes tecnologias de detecção contra cenários do mundo real, como fraudes financeiras, abuso sexual, golpes de impersonação e desinformação política. O objetivo é mapear lacunas nas capacidades atuais de detecção e estabelecer expectativas claras para a indústria sobre padrões mínimos de segurança.

A iniciativa se baseia no Deepfake Detection Challenge, evento realizado na semana passada pela Microsoft que reuniu mais de 350 participantes, incluindo INTERPOL, membros da aliança Five Eyes e grandes empresas de tecnologia. A City of London Police, que lidera o combate a fraudes no Reino Unido, destacou que o framework fortalecerá significativamente a resposta das autoridades contra essa ameaça em rápida evolução.

Contexto de crescimento alarmante de crimes com IA

O movimento britânico ocorre em meio a uma explosão global de crimes envolvendo deepfakes. Apenas no primeiro trimestre de 2025, perdas financeiras relacionadas a deepfakes ultrapassaram US$ 200 milhões na América do Norte. A América Latina também enfrenta desafios crescentes, com o Brasil discutindo diversos projetos de lei para regular o uso de inteligência artificial e deepfakes.

O Reino Unido recentemente criminalizou a criação de imagens íntimas não consensuais geradas por IA, medida que surge após escândalos envolvendo plataformas que permitem a criação de conteúdo manipulado. A ministra de Proteção contra Violência, Jess Phillips, enfatizou que “é hora de responsabilizar a indústria de tecnologia e proteger o público, que não deve viver com medo”.

Gabriel Pereira

Fundador da Let's Money

Fundador da Let's Money que da voz a quem constrói o mercado financeiro no Brasil e no mundo.

Fundador da Let's Money que da voz a quem constrói o mercado financeiro no Brasil e no mundo.