Empresa vê como possível que “bots sociais”, baseados em computação cognitiva, estejam agindo em lugar dos supostos “gurus” humanos que comandariam os “desafios suicidas”
O Jogo da Baleia azul, que tem causado grande comoção nas redes sociais e muita repercussão na mídia, está tendo fortemente questionado o seu verdadeiro efeito sobre uma suposta onda de ações suicidas. Grupos de pesquisadores e jornalistas internacionais de sites “tira prova” defendem que a ligação do Baleia Azul com o suicídio de jovens não passa de uma lenda urbana que, por retroalimentação, acabou funcionando como fator de crescente popularização do jogo.
No Brasil, o fenômeno é recente, mas já foram relatados diversos casos, ainda em investigação, incluindo várias tentativas de suicídio e uma morte por overdose de medicamentos em MG.
Como lendas urbanas modernas, a história se alastra rapidamente e tem em seu enredo vários clichês dignos de séries de terror tipo “B”. Entretanto parece que a trilha inventada pode estar servindo de inspiração para ações reais, com mortes e mutilações, mesmo que isoladas.
Um ponto ainda não comprovado é se há ou não a participação de pessoas se utilizando da história para induzir outras pessoas a cometerem suicídio.
Mas, independentemente da veracidade do esquema, resta avaliar o alto poder de dano pessoal e letalidade potencialmente revelado pelo modelo da Baleia Azul.
Imaginemos que o “curador” do jogo, a pessoa que envia as mensagens, fosse, ao invés de um humano, uma inteligência artificial agindo a partir de um “chatbot”.
Os chatbots ou, simplesmente, bots são uma emergente modalidade de código robotizado capaz de se comunicar em redes sociais emulando indivíduos humanos com alto nível de verossimilhança.
Considerando-se esta hipótese do uso de robôs, o episódio Baleia Azul estaria inaugurando uma nova era dos incidentes de segurança, com ataques de engenharia social em massa que afetam de forma direta e altamente impactante o comportamento do usuário.
De acordo com Thiago Zaninotti, CTO da Aker N-Stalker, o padrão de comunicação interativa implementado pelo modelo do Blue Whale, é perfeitamente compatível com os atuais bots, baseados em princípios de computação cognitiva.
“Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de autoaprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas por parte do cibercrime”, comenta Zaninotti.
Rodrigo Fragola, CEO da Aker, explica que “o jogo da Baleia Azul está assentado em um menu fixo de “50 desafios” que cada usuário deve obedecer, em uma ordem igualmente repetitiva, e em um conjunto limitado de atividades recorrentes. Os tais desafios ‘assustadores’ desse game são, tecnicamente falando, ações de baixa complexidade, como se cortar com uma lâmina, assistir a um filme de terror ou fazer voto de silêncio por um dia, até culminar na proposta do ato suicida.
“Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos”, afirma Fragola.
Segundo ele, a criação de um chatbot para as finalidades propostas pelo Baleia Azul seria algo tão simples e banal quanto implementar um assistente robótico para apoiar a venda de passagens aéreas ou para sugerir modelos de calçados adequados ao estilo de um consumidor previamente perfilado por engenharia social.
Na visão do CEO da Aker, existe, portanto, uma considerável possibilidade de haver bots no lugar de “gurus humanos” orientando os usuários do game, o que os remeteria a um cenário assustador. “Caso se confirme a hipótese, teremos na sociedade global uma combinação explosiva de robotização das relações sociais associada a um grande potencial de epidemias psicóticas.
“Unindo-se esta tecnologia de bots com as de realidade aumentada e a virtualização progressiva da experiência, podemos chegar a um ambiente social com potencial destrutivo enorme”, comenta Fragola.
Desde o aparecimento do Blue Whale, há mais de dois anos, apenas uma única pessoa (um romeno de 21 anos) foi até agora identificado e preso sob a acusação de agir como curador. Mesmo existindo esse suspeito, seu julgamento vem sendo sistematicamente adiado por falta de provas cabais de seu envolvimento, segundo reportam fontes como a ONG NetFamillyNews e a entidade SafeNet da Bulgária
UFMG Testou Bots Sociais no Twitter
O Baleia Azul foi revelado pela mídia internacional em 2015, a partir da Rússia, onde teve seu nome relacionado a cerca de 130 suicídios de adolescentes em um período de apenas um ano. Notícias sobre o jogo e sua alta periculosidade começaram a sair recentemente no Brasil, após a morte de um jovem (suposto participante do jogo), por overdose de medicamentos, em Pará de Minas (MG).
Desde seu aparecimento até hoje, o Blue Whale e sua origem estão envoltos em um nível de mistério que é típico dos instrumentos hackers voltados para a obtenção de lucro direto (através de roubo, fraude, extorsão ou sequestro) ou para a captura de dados valiosos e a escravização de computadores infectados.
Pela avaliação da Aker, se o modelo fosse automatizado, ele poderia realizar ações de mineração de dados em redes sociais e identificar pessoas ideais para serem alvos na propagação de spam contendo códigos maliciosos. Para abordar suas vítimas, o sistema criaria falsas “personas” (ou “falsos avatares”) com afinidades sociais bem definidas e preparadas para interagir com internautas dispostos a novos relacionamentos (ou a jogos) e abertos a aventuras nas diversas redes sociais.
Pessoas com perturbação mental seriam o alvo perfeito e, aliás, ações de injeção do Blue Whale já foram identificadas em fóruns de ajuda mútua e aconselhamento de pessoas dependentes de drogas e com diversos tipos de psicose. “Mesmo não havendo conexão real entre o suicídio de jovens e o jogo, a possibilidade de se usar robôs para potencializar o efeito de doenças mentais em massa é extremamente preocupante”, comenta o CEO da Aker.
Para exemplificar a força desse modelo automatizado, Rodrigo Fragola menciona um trabalho acadêmico realizado no Brasil por pesquisadores da UFMG junto ao twitter. “Depois de analisar milhares de perfis de pessoas comuns no Twitter, os pesquisadores mineiros criaram 120 chatbots imitando usuários normais que, em 30 dias, conseguiram angariar mais de 3 mil seguidores (e interlocutores regulares) na rede. Inclusive com grande sucesso em termos de postagens retuitadas por usuários humanos da rede”.
Teorias Conspiratórias Também Envolvem o Blue Whale
Em fóruns hackers internacionais não faltam teorias conspirativas que atribuem a criação do “jogo do suicídio” e sua associação a mortes de internautas a governos autoritários interessados em produzir pânico coletivo contra a “excessiva liberdade” das redes sociais.
De acordo com estas leituras, ao estimular a lenda urbana do Blue Whale associada a ondas de suicídio, governos do Leste Europeu estariam, na verdade, fomentando o apoio popular à imposição de vigilância, limitações e censura às redes sociais de seus países.
À parte esta lógica conspiratória, já há claros indícios de que os suicídios atribuídos ao engajamento com o Baleia Azul têm pouquíssima ou nenhuma relação efetivamente comprovada com os desafios do “jogo da morte”, exceto pelo fato de que parte das vítimas teria realmente frequentado comunidades de pessoas com propensão mórbida, por onde também circulariam as personas robóticas do Blue Whale.
Independentemente de ter ou não ocasionado mortes, o fato que o Blue Whale traz à tona é o de que a computação cognitiva irá aumentar, em muito, a capacidade de manipulação das massas, seja por parte de governos ou de grupos do crime organizado.
“Está na hora da sociedade e da comunidade de segurança começarem a refletir sobre este fato. A corrida em busca de tecnologias para detectar, destravar e perseguir a origem desse tipo de ataque, com potencial de gerar convulsões em massa, já mobiliza todo o setor de segurança. Mas só com muita educação adequada às novas realidades da sociedade em nuvem é que poderemos aumentar o nível de segurança das crianças e adolescentes na Internet”, conclui Fragola.
Do Boletim TI Bahia (Tibahia.com )