Quando a IA da agência encontra a fraude publicitária – como os bots estão revolucionando o marketing digital

I.A Tecnologia

A publicidade fraudulenta existe há muito tempo. É claro que a internet facilitou o processo, mas agora, com navegadores e ferramentas de IA remodelando o tráfego de anúncios, está cada vez mais difícil distinguir entre bots e compradores reais e determinar qual engajamento ainda tem algum valor.

Conversamos com Mike Schrobo, CEO da Fraud Blocker, para discutir como essa mudança está impactando o marketing digital e a fraude publicitária, e o que as empresas podem fazer a respeito.

BN: Como o tráfego gerado por um bot de IA com agentes difere do tráfego gerado por um bot padrão, menos sofisticado?

MS: Os bots de antigamente eram muito mais previsíveis do que os de hoje. Cliques em intervalos regulares, durações de sessão idênticas e padrões robóticos indicavam que o navegador provavelmente não era humano. Repetição e uniformidade eram sinais claros de alerta.

As fazendas de cliques do passado são um bom exemplo de como esses bots eram usados ​​para perpetuar fraudes publicitárias. A metodologia não era de ponta, mas as plataformas não detectam todos os engajamentos falsos e nem todas as empresas têm proteção contra fraudes publicitárias. Assim, cliques previsíveis continuavam a drenar orçamentos de marketing, explorando a estrutura da publicidade digital, que oferece micropagamentos por ação.

Criminosos contrataram trabalhadores em países em desenvolvimento para inflar fraudulentamente o número de cliques e, consequentemente, os pagamentos. Ao fazer parcerias com redes de publicidade e vender espaços publicitários em seus próprios sites, os golpistas direcionaram grandes quantidades de tráfego falso para gerar impressões de anúncios, enquanto as empresas pagavam a conta. A fraude publicitária já é um golpe oito vezes maior que a fraude com cartões de crédito, e a inteligência artificial ativa adiciona um novo grau de dificuldade.

Bots com inteligência artificial variam seu comportamento de acordo com o contexto — rolando a página em velocidades semelhantes às humanas, pausando em conteúdos e até mesmo abandonando carrinhos de compras como compradores reais. O resultado é uma interação que parece humana, mas não converte em vendas. Esses bots podem operar de forma autônoma e convincente, dificultando a categorização do tráfego e tornando a detecção de fraudes mais desafiadora.

BN: Qual é o risco financeiro para as principais plataformas de publicidade (como o Google ou o Meta) se elas não conseguirem lidar adequadamente com a fraude por IA assistida por agentes?

MS: Essa é uma boa pergunta, porque eles não são imparciais. Os principais players reembolsam alguns cliques inválidos, mas não detectam tudo, e nossos dados mostram que as solicitações manuais de reembolso têm uma taxa de aprovação de cerca de 10% no Google . Além disso, não é do interesse deles realmente “resolver” esse problema. Afinal, quando seu modelo de negócios recompensa o volume de tráfego em detrimento da qualidade, filtrar agressivamente as fraudes reduz a receita. Essas plataformas intermediárias estão em uma situação delicada, entre satisfazer os anunciantes e proteger seus próprios lucros.

Vejo alguns pontos em jogo aqui. Primeiro, os anunciantes podem perder a confiança quando virem as métricas de engajamento aumentarem enquanto as vendas diminuem — um sinal revelador de inflação de bots. As plataformas precisam demonstrar que estão tomando medidas para proteger a integridade de suas respectivas marcas e do setor como um todo. Se os anunciantes perceberem que estão pagando por fraude, então é aí que poderemos vê-los exigindo reembolsos e retirando seus orçamentos (ou migrando para outros canais).

Além disso, no âmbito operacional, as plataformas de publicidade precisarão investir pesadamente em sistemas de defesa para acompanhar os agentes maliciosos automatizados. Esses custos podem ser repassados ​​aos anunciantes por meio de preços mais altos por clique. Essa evolução sugere múltiplos efeitos: erosão da confiança, redução de orçamentos e aumento de custos. Com a previsão de que a IA ativa se torne comum nos próximos 12 meses, as plataformas estão ficando sem tempo para se antecipar a essa tendência.

BN: À luz do recente exemplo de fraude publicitária no Android , que medidas de segurança preventivas as plataformas devem implementar para se defenderem contra a replicação em larga escala, por agentes livres de malware, de pedidos de lances fraudulentos?

MS: Sim, este foi um esquema de fraude publicitária particularmente notável que se apropriou secretamente de smartphones de usuários em todo o mundo. No seu auge, infectou 38 milhões de dispositivos e gerou 2,3 ​​bilhões de solicitações de lances fraudulentos por dia.

Em resumo, hackers criaram aplicativos maliciosos que pareciam legítimos e os publicaram na Google Play Store. Os aplicativos baixados, então, abriam secretamente navegadores que direcionavam os usuários para domínios controlados pelos golpistas. A partir daí, esses dispositivos se transformavam em “fazendas de cliques fantasmas” em uma enorme rede distribuída, sem que os usuários sequer percebessem.

Talvez ainda mais preocupante seja o fato de esse esquema ter usado engajamento publicitário tradicional com bots – imagine o que uma rede tão grande poderia fazer impunemente nesta era dos agentes?

Para o futuro, as plataformas precisam de uma defesa em múltiplas camadas. Primeiro, a análise comportamental em tempo real identifica padrões que os humanos não gerariam — como durações de sessão idênticas em milhares de dispositivos ou picos de tráfego coordenados para os mesmos domínios em questão de segundos. Segundo, a identificação por IP e impressão digital do dispositivo permite identificar quando dispositivos conhecidos mudam repentinamente seu comportamento — padrões de tráfego anômalos são justamente o que levou os pesquisadores a descobrir o esquema mencionado. Terceiro, tecnologias emergentes, como a atestação de dispositivos baseada em blockchain, mostram-se promissoras para a criação de registros imutáveis ​​de procedência e histórico de tráfego que os fraudadores não podem manipular facilmente.

BN: Se bots de IA com agentes podem se comportar de forma indistinguível de usuários reais, esse tráfego deveria ser valorizado de forma diferente? Que outros tipos de fraude essas novas ferramentas podem potencialmente viabilizar?

MS: Esta é outra incógnita que ainda está em debate. Os agentes de IA são essencialmente bots que fazem o que você manda. Se um navegador com IA — como o lançado recentemente pela OpenAI — busca uma nova mochila em seu nome, isso representa uma valiosa intenção de marketing que aciona pixels de remarketing. Dias depois, o usuário vê anúncios direcionados e realiza uma conversão. Os anunciantes devem pagar o preço integral por essa atividade do agente? Metade? Nada? Essa é uma discussão em andamento.

Outro problema é que os navegadores com agentes são potencialmente vulneráveis ​​a ataques. Um ataque de injeção de prompts poderia instruir o mesmo agente a visitar sites concorrentes e drenar os orçamentos de publicidade. Mas as métricas parecem quase idênticas, com o agente pesquisando a partir do dispositivo do usuário usando o mesmo IP, navegador e informações de sessão.

Claramente, precisaremos de maneiras melhores de distinguir bots de navegadores e de proteção em tempo real para bloquear agentes comprometidos antes que causem danos. Além disso, as plataformas de anúncios devem ser mais transparentes quanto à porcentagem de tráfego gerado por agentes, para que os anunciantes possam tomar decisões informadas sobre o que estão comprando.

BN: Será que a batalha contra a fraude publicitária se tornará uma constante corrida armamentista entre IAs? E, em caso afirmativo, como os mecanismos de defesa legítimos podem obter uma vantagem sustentável?

MS: Muito provavelmente, sim, e os anunciantes têm razão em combater fogo com fogo. As projeções mostram que a fraude publicitária custará US$ 172 bilhões até 2028, um aumento de quase US$ 100 bilhões em cinco anos, e essa é uma estimativa anterior à chegada da IA ​​ativa.

Esta é uma batalha de escala e os anunciantes não têm muita escolha a não ser acompanhar o ritmo. É animador ver o setor se esforçando para automatizar a supervisão em tempo real de seu ecossistema de anúncios. Ferramentas inteligentes podem identificar microcomportamentos que bots sofisticados ainda têm dificuldade em replicar de forma autêntica (padrões de rolagem, duração das sessões, dinâmica de digitação) e se antecipar ao engajamento falso. Nossa plataforma, por si só, analisa 60 milhões de endereços IP por mês para detectar essas ameaças assim que acontecem.

Em segundo lugar, se você vir algo suspeito, denuncie. Novos métodos de fraude publicitária estão surgindo e um melhor compartilhamento de informações sobre ameaças mantém todos mais seguros. A chave é priorizar a detecção proativa em vez de reembolsos reativos. Os anunciantes se beneficiam mais bloqueando a fraude antes que as cobranças sejam efetuadas do que correndo atrás de reembolsos depois que o fato já aconteceu.

Trabalho com marketing há mais de duas décadas e, embora esta seja provavelmente a ameaça mais sofisticada que já vi, é animador saber que contamos com ferramentas de detecção que operam na mesma escala que os ataques. Isso me dá confiança de que podemos vencer essa corrida armamentista e proteger a integridade da publicidade digital.

Fonte: www.betanews.com
Link da Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *