A quantidade de informação (e velocidade a que é partilhada) disponível nas redes sociais e proveniente de diferentes intervenientes estatais e não estatais, como são exemplo os milhões de utilizadores individuais, cria novos e complexos desafios na deteção e combate à desinformação. A dificuldade reside em identificar a origem e o alcance da desinformação, de forma a remover conteúdo falso, muitas vezes amplamente disperso, e também em identificar publicações falsas antes que cheguem ao público em massa.
Assim, um dos grandes desafios da modernidade é a chamada Cognitive Warfare ou Guerra Cognitiva que, no fundo, diz respeito às atividades conduzidas em sincronização com outros instrumentos de poder, para moldar atitudes e comportamentos e influenciar a cognição, individual e de grupo, para obter vantagens. Entra aqui também o importante papel da Inteligência Artificial (IA) que tem um enorme potencial de uso disruptivo no domínio político através de análises detalhadas, propaganda direcionada e vídeos falsos, baratos e altamente credíveis. As inúmeras ferramentas apoiadas por IA são usadas para manipular a opinião pública em escala anteriormente inimaginável ao amplificar a desinformação, especialmente através das redes sociais.
Os deepfakes – IA utilizada para criar perfis, vídeos, imagens e áudios falsos de pessoas reais – são uma dessas ferramentas amplamente utilizadas para manipular a opinião pública, espalhar notícias falsas e assim provocar desconfiança e confusão entre o público. Apesar de alguns vídeos transmitidos parecerem ainda pouco sofisticados, é importante relembrar que estamos apenas no início da era de influência impulsionada pela IA e mesmo com deepfakes de qualidade média, atingir uma população com baixo nível de literacia digital pode ter um grande impacto na vida real.
Atualmente, o facto de qualquer utilizador da Internet conseguir criar conteúdos falsos, a baixo custo e de forma relativamente fácil, tornou-se uma questão particularmente complexa e nesse sentido é essencial uma compreensão profunda do fenómeno bem como das formas de enfrentar os desafios que o mesmo coloca. A dramática proliferação de deepfakes começou a minar a nossa capacidade de discernimento da realidade ao obrigar a população a questionar algo que era tão certo como a informação percebida através dos nossos sentidos. Se é já um desafio esclarecer a importância de questionar as fontes da informação que nos chega, agora o desafio é maior ainda na medida em que devemos questionar os nossos próprios sentidos. Quando observamos um vídeo, aparentemente, com a imagem e a voz de uma personalidade reconhecida, a tendência normal será confiar nos nossos sentidos, confiar no que estamos a ver e a ouvir. No entanto, com a melhoria da qualidade do deepfake e a sua proliferação, há uma mudança de paradigma que exige uma maior vigilância e atenção ao detalhe.
A desinformação ataca exatamente as vulnerabilidades cognitivas dos seus alvos, tira partido de sentimentos de incerteza, de situações de crise ou crenças pré-existentes que predispõem os indivíduos a aceitar informações falsas. Efetivamente, a tendência é que os indivíduos acreditam quase automaticamente em conteúdos que refletem a sua posição, muitas vezes sem verificar a credibilidade da informação. Num futuro próximo, o uso de tecnologias baseadas em IA para criar discursos e vídeos falsos pode tornar-se um novo normal na guerra convencional e não convencional.
Exemplos do potencial do deepfake foram particularmente notórios no início do conflito militar entre a Rússia e a Ucrânia – deepfakes foram usados para apoiar operações militares, especialmente do lado russo, para fins de dissimulação. Foram vários os casos registados de manipulação de conteúdo para fins geopolíticos, como por exemplo um vídeo fabricado do presidente ucraniano Volodymyr Zelensky, divulgado em 2022, que instava falsamente as tropas ucranianas a renderem-se. As operações de influência para enganar as forças militares opostas são bastante tradicionais na história da guerra e da estratégia e, com as novas tecnologias, a tendência é que aumente. A Rússia, em particular, passou décadas a desenvolver um ecossistema de propaganda de canais de comunicação que utiliza para lançar campanhas de desinformação de grande alcance.
Relativamente à China, segundo escritos do governo e dos seus militantes, as operações cognitivas visam “capturar a mente dos inimigos” de forma a moldar as perceções do adversário e, consequentemente, as suas decisões e ações. As plataformas de redes sociais são vistas como o principal campo de batalha desta luta. As estratégias passam por espalhar narrativas através das redes sociais com o objetivo de moldar gradualmente a perceção do público e alcançar objetivos de guerra ou políticos. A premissa é a de “deitar mais lenha para a fogueira” dos preconceitos e manipular uma narrativa desejada. Outras estratégias visam inundar as redes sociais com uma narrativa específica para influenciar a opinião pública. Neste caso as principais ferramentas para moldar a opinião pública são os bots e deepfakes. Muitos estudos mostram que um método comum e eficaz de exercer influência é utilizar ferramentas de machine learning com o intuito de explorar as emoções e preconceitos dos utilizadores para selecionar e atingir os públicos mais suscetíveis e, em seguida, “disparar” rápida e intensamente conteúdo falso personalizado para o grupo-alvo em questão.
Outro exemplo são os mais recentes confrontos, em curso, entre o Hamas e Israel. O volume de informação é tão elevado e amplamente distribuído entre as diferentes plataformas, que a desinformação atingiu rapidamente o seu objetivo, a um ritmo e sofisticação muito superiores aos da guerra na Ucrânia. À medida que o conflito avança rapidamente, as lacunas na informação são exploradas e criam espaço para que a desinformação se enraíze. Guerras assimétricas ou não convencionais, e como vimos recentemente com o ataque do Hamas a Israel, são lideradas pela desinformação e pela tentativa de dominar a narrativa. Por outro lado, em Gaza o acesso à Internet é já escasso, o que compromete a capacidade de os palestinianos terem acesso a notícias atualizadas sobre o conflito e limitam a capacidade de os jornalistas em Gaza informarem o mundo sobre o que está a acontecer. O apagão de comunicações resultante isolou os trabalhadores humanitários, os civis e os jornalistas, incapacitando-os de comunicar entre si e com o resto do mundo. Se por um lado, provocar num adversário um “apagão de informação” permite à outra parte ter mais controlo sobre a narrativa, a realidade é que, o vácuo de informação independente e factual deixa espaço para ser preenchido com propaganda e desinformação.
Assim, além de serem cada vez mais utilizadas ferramentas apoiadas por AI, com o objetivo de influenciar a opinião pública e servir-se da desinformação para obter vantagens, quando tal não for suficiente, é expectável que outras estratégias passem por provocar num adversário uma “escuridão digital e de informação”. Estas estratégias são combinadas com as operações físicas, começam logo antes do início das hostilidades e procuram definir a agenda para os líderes, os seus públicos, as suas forças armadas e para a própria geopolítica.
Partilha este artigo:
Deixe um comentário