Uma das empresas parceiras da e-Safer, a Akamai Technologies divulgou recentemente um novo relatório do Estado da Internet (State of the Internet) que detalha as ameaças de segurança e os riscos comerciais que as organizações enfrentam com a proliferação de bots de scraping na web. Os dados revelam que os bots são responsáveis por 42% do tráfego total, sendo que 65% deles são maliciosos.
Com sua dependência em aplicações web geradoras de receita, o setor de comércio eletrônico tem sido o mais afetado pelo tráfego de bots de alto risco. Esses dados geram um grande alerta pois, embora alguns dos bots possam ser benéficos para os negócios, bots de scraping estão sendo usados em ataques cibernéticos para obter informações, criação de sites falsos e outros esquemas que impactam negativamente as empresas.
Não existem leis que proíbam o uso de bots de scraping, e eles são difíceis de detectar devido ao surgimento de redes de bots alimentadas por inteligência artificial (IA), mas há algumas medidas que as empresas podem adotar para mitigá-los. Vamos entender como você pode se proteger dessa ameaça.
O que diz o relatório em detalhes?
De acordo com Patrick Sullivan, CTO de Estratégia de Segurança na Akamai, os “bots continuam a apresentar desafios enormes, resultando em múltiplos pontos de dor para proprietários de aplicativos e APIs. O cenário de scraping também está mudando devido a avanços como a tecnologia de navegador sem interface gráfica, exigindo que as organizações adotem uma abordagem mais sofisticada para gerenciar esse tipo de atividade de bots, diferente das mitigações baseadas em JavaScript.”
O relatório possui algumas outras descobertas, como:
- Botnets de IA e scraping de dados não estruturados: Botnets alimentadas por IA têm a capacidade de descobrir e coletar dados não estruturados e conteúdos em uma localização menos comum. Além disso, eles podem alterar o processo de tomada de decisão através da coleta, extração e processamento de dados.
- Criação de sites de phishing mais sofisticados: Bots de scraping podem ser usados para gerar campanhas de phishing mais sofisticadas, capturando imagens de produtos, descrições e informações de preços para criar lojas falsas ou sites de phishing com o objetivo de roubar credenciais ou informações de cartão de crédito.
- Abuso na abertura de novas contas: Bots podem ser utilizados para facilitar o abuso na abertura de novas contas, o que, de acordo com pesquisas recentes, compõe até 50% das perdas por fraude.
- Impactos técnicos e comerciais: As organizações enfrentam vários impactos técnicos devido ao scraping, seja ele realizado com intenções maliciosas ou benéficas. Esses impactos incluem degradação no desempenho do site, poluição de métricas do site, ataques de credenciais comprometidas a partir de sites de phishing, aumento nos custos de computação, e mais.
Como lidar com esses problemas?
O relatório da Akamai não apenas fala sobre os riscos, mas também oferece algumas estratégias de mitigação, além de abordar algumas questões sobre conformidade e do impacto além do roubo de dados. Os bots de scraping podem afetar diretamente a experiência do cliente, uma vez que o uso indiscriminado de recursos do servidor leva a tempos de carregamento mais lentos e à indisponibilidade de certos serviços.
Além disso, a criação de sites falsos não só engana os consumidores, mas também dilui a reputação da marca original. Quando os consumidores caem em golpes envolvendo essas cópias, eles podem culpar a marca verdadeira, causando má reputação da sua organização.
Com a melhoria da tecnologia, fica cada vez mais difícil detectar bots com métodos mais tradicionais, como o uso de CAPTCHAs. Portanto, para o setor de e-commerce, é preciso focar em ferramentas e soluções que possam identificar e bloquear automaticamente tráfego malicioso com monitoramento contínuo, análise de comportamento em tempo real e resposta a incidentes para minimizar o impacto desses bots.
Além disso, a conscientização sobre os riscos entre todos os funcionários da empresa é essencial. Garantir que as boas práticas sejam executadas pode fazer a diferença para evitar uma nova brecha e vulnerabilidade no sistema. Crie políticas claras sobre o uso e proteção de dados e implemente-as na sua estratégia de segurança.
Atualmente, a falta de uma legislação clara que proíba o uso de bots de scraping deixa as empresas vulneráveis, mesmo com a existência de leis de proteção de dados como a LGPD e a GDPR. À medida que os governos começam a perceber a gravidade do problema, pode haver uma maior pressão para a criação de leis que protejam as empresas contra esses ataques, por isso é importante que esses assuntos estejam em alta e sejam sempre comentados nos grupos de discussão de tecnologia.
Como está a proteção da segurança da sua empresa? O quanto você utiliza bots no seu dia a dia? Eles estão sendo monitorados corretamente? Na e-Safer, possuímos as ferramentas certas de monitoramento e gestão para que a sua equipe de TI possa manter o controle do que está acontecendo a todo momento. Quer saber mais? Confira nosso site e converse com nossa equipe para entender melhor sobre como podemos resolver os desafios que a sua organização encontra e nos adaptar a sua necessidade.