Consumidor

ChatGPT: Dez riscos e oportunidades para o setor da segurança

Ao longo dos últimos meses, foi disponibilizado ao público em geral um dos últimos desenvolvimentos ao nível da inteligência generativa, o ChatGPT, que se tem tornado bastante popular e que além de suscitar muita curiosidade, gerou muito debate. Trata-se de uma forma de aprendizagem automática, baseada em modelos linguísticos, capaz de gerar novos conteúdos em qualquer formato (texto, imagem, vídeo, voz, código). No entanto, este tipo de desenvolvimentos não são novidade. Há algumas semanas, a Microsoft apresentou a sua proposta de Bing com IA (Inteligência Artificial), cujo potencial, de facto, é muito maior do que o do ChatGPT; e espera-se também que a solução da Google, a Bard, seja lançada em breve. Além destas soluções, proliferam inúmeras propostas que não se limitam a oferecer resultados textuais baseados em modelos linguísticos, mas à produção e combinação de qualquer tipo de conteúdo. 

Tendo em conta o rápido desenvolvimento destas tendências, a Prosegur Research, centro Insight&trends da Prosegur, analisou as implicações do ChatGPT numa perspetiva de segurança, e identificou os principais riscos e oportunidades que resultam da sua aplicação em diferentes áreas. 

Os dez principais riscos de segurança decorrentes do ChatGPT, segundo a análise da Prosegur Research, são os seguintes: 

  1. Polarização social: a IA generativa, dada a sua capacidade de produzir conteúdo multimédia, pode ser utilizada para divulgar mensagens de ódio ou discriminação, bem como mensagens de natureza extremista. 
  2. Phishing: geração automatizada de e-mails com uma aparência “real”, elaborados com o objetivo de enganar os utilizadores a fim de aceder aos seus dados, a informações confidenciais, ou a sistemas informáticos. Há que ter em conta que a IA generativa redige com uma grande qualidade, o que invalidar as suspeitas que, por exemplo, um phishing de baixa qualidade origina. 
  3. Desinformação: através da criação de notícias falsas, são feitas tentativas para influenciar a opinião pública, prejudicar a coesão social ou afetar os processos eleitorais. A desinformação é uma questão clara que afeta a segurança pública, prejudicando a coesão social e os princípios democráticos. 
  4. Doxing: a desinformação também poderá vir a afetar empresas e organizações, com a disseminação de burlas, informação tendenciosa, criação de perfis profissionais falsos, ou a manipulação de documentos que prejudiquem a credibilidade das organizações. O seu objetivo pode variar desde uma simples paródia até ao ataque à reputação ou à influência dos mercados. 
  5. Fuga de informação e roubo de dados: empresas como a Amazon e Google alertaram os seus colaboradores para os riscos de partilhar informações sobre as empresas no ChatGPT e aplicações semelhantes, já que poderiam vir a ser divulgadas mais tarde nas respostas fornecidas aos utilizadores. 
  6. Fraudes e esquemas: são tipologias criminais que têm vindo a crescer nos últimos anos. As fraudes tradicionais, que existem em todos os setores económicos, são reforçadas pela utilização da Internet, das redes sociais e das novas tecnologias. A IA generativa pode ajudar a realizar fraudes com muito maior qualidade, bem como a definir alvos. 
  7. Criação de chatbots maliciosos com intenção criminosa: podem interagir com indivíduos para obter informação sensível ou fins económicos ilícitos. 
  8. Roubo de identidade: a utilização das chamadas “deep fakes” juntamente com a capacidade da IA de gerar texto, imagens, vídeos e até mesmo simular voz, e a criação de avatares que integram todos estes elementos, facilitam o aumento da credibilidade das identidades falsas. 
  9. Criação de código malicioso, como vírus, trojans (cavalos de troia), malware, ransomware, spyware: o objetivo é cometer crimes cibernéticos de naturezas diferentes. 
  10. Lutas de poder geopolítico e geoeconómico: num contexto de poderes difusos e fragmentados, a liderança já não se mede apenas pela capacidade económica, diplomática ou militar. A geopolítica e a geoeconomia apresentam novos riscos, mas também oportunidades para os estados e empresas que tenham uma grande capacidade de antecipação e prevenção. Os dados, juntamente com as tecnologias, estão no centro da configuração do poder, criando uma assimetria entre aqueles que o têm e aqueles que não o têm. 

Contudo, a tecnologia, como um grande fator de mudança nas nossas sociedades, normalmente não surge orientada para o uso malicioso. Por esta razão, a Prosegur Research também quis analisar as oportunidades que o ChatGPT pode gerar no domínio da segurança, entre as quais se destacam as seguintes: 

  1. Automatização de tarefas rotineiras em funções de segurança: poderia potenciar mais as capacidades humanas e facilitar o bem-estar dos colaboradores, eliminando tarefas repetitivas e monótonas. 
  2. Criação de chatbots apelativos: com um perfil mais amigável e mais humano, melhorando assim a interação com os clientes e outros utilizadores. 
  3. Acesso a vastas quantidades de informação relevante para a segurança, de forma estruturada através da utilização de linguagem natural: neste caso, as capacidades de inteligência de fonte aberta (OSINT) são reforçadas, estando sempre conscientes dos critérios de avaliação relativamente à credibilidade das fontes e da informação. 
  4. Em análises de risco: pode ajudar na deteção e na catalogação de riscos para as organizações. 
  5. Reconhecimento de padrões, dentro do vasto conjunto de dados e informações que estas aplicações tratam: o valor não estaria apenas no padrão, mas na anomalia, ou seja, no que é fora do normal e pode contribuir para gerar um sinal ou um alerta antecipado. 
  6. Na análise de inteligência, pode contribuir para a formulação de hipóteses, identificação de tendências e construção de cenários de segurança: embora a IA não possa substituir a criatividade humana, pode ser um complemento interessante para as ideias fora da caixa. 
  7. Estruturação de recomendações sobre questões de segurança: desde como se defender contra um ciberataque até às medidas de segurança a tomar antes ou durante uma viagem. Não substitui de forma alguma o trabalho de um analista de segurança internacional, mas apoia algumas tarefas. 
  8. Análise preventiva: os dados em que se baseia podem fornecer certas previsões, com probabilidades associadas, com base na vasta quantidade de dados em que se fundamenta. 
  9. Na cibersegurança, pode apoiar a deteção de phishing, testar códigos, identificar vulnerabilidades, gerar senhas seguras, ou simular conversas com intervenientes adversos, ou mesmo potenciais alvos, a fim de antecipar as suas ações. 
  10. Aprendizagem: a IA generativa pode ser um primeiro ponto de aprendizagem sobre questões de segurança, sobre tecnologias e sobre riscos. Serão particularmente interessantes, na medida em que fornecem fontes e são cada vez mais aperfeiçoados.

Categorias:Consumidor