Líderes de ciber-segurança devem adoptar mentalidade de “hacker” e educar colaboradores para usar (bem) a IA, defende estudo

Os líderes de cibersegurança devem capacitar os seus colaboradores sobre a utilização apropriada e, com os seus conselhos directivos e equipas executivas, explicar os riscos e oportunidades da IA e a forma como estão a ser geridos. Esta é uma das principais conclusões retiradas do estudo “Segurança, protecção, privacidade e instruções: resiliência cibernética na era da IA”, lançado pela NCC Group.

 

A ascensão da IA e, em particular, das plataformas de IA generativa, está a moldar o panorama da segurança cibernética em todo o mundo. À medida que empresas e organizações procuram aproveitar o poder da IA para proteger as suas infraestruturas digitais, surgem desafios significativos e oportunidades sem precedentes.

A IA tem-se estabelecido como uma ferramenta de valor inestimável na segurança cibernética, impulsionando a capacidade de defesa contra ameaças digitais e aprimorando as tácticas de ataque de adversários. No entanto, também enfrenta ameaças exclusivas e apresenta questões críticas de transparência e ética.

Desafios em destaque:

  1. Duplo uso da IA: A IA pode ser usada tanto para fins defensivos quanto ofensivos, criando um campo de jogo complexo para organizações de segurança cibernética.
  2. Ameaças aos sistemas de IA: Os modelos de IA são vulneráveis a ameaças que visam manipular o seu comportamento, extrair dados sensíveis e degradar o seu desempenho.
  3. Transparência e explicabilidade: A natureza opaca de muitos modelos de IA torna desafiador garantir a sua segurança e entender as decisões que tomam.
  4. Privacidade e ética: Questões de privacidade surgem quando dados pessoais são usados no treinamento da IA, e o viés algorítmico pode perpetuar desigualdades.

«O percurso de desenvolvimento da IA tem sido meteórico nos últimos anos; permeando todos os sectores e mudando sistematicamente as operações empresariais e os processos de tomada de decisão», afirma Siân John, Chief Technology officer da NCC Group, acrescentando que «Organizações e formuladores de políticas têm a tarefa árdua de aproveitar o potencial transformador da IA, ao mesmo tempo que precisam lidar com o panorama de ameaças em constante evolução que ela apresenta».

«Assegurar a segurança e a protecção das pessoas, dos processos e da tecnologia num mundo aumentado pela IA exige vigilância e um compromisso com estratégias inovadoras que exigirão adaptação contínua. Este documento da NCC Group procura introduzir o tema da reinvenção da cibersegurança pela IA, estabelecendo uma base de compreensão para os principais conceitos, ameaças e oportunidades, de forma a apoiar o pensamento e estratégias nesta emocionante nova era tecnológica», realça.

 

Assim, as organizações devem:

  1. Compreender as ameaças, gerir os riscos e aproveitar as oportunidades apresentadas pela IA para melhorar a postura cibernética.
  2. Adoptar uma mentalidade de hacker, conduzindo testes de penetração e simulações de ataque contra sistemas de IA, com a presunção de que os atacantes estão a utilizar a IA para melhorar a eficácia dos seus ataques.
  3. Garantir que a privacidade, a segurança da informação e a ética, assim como os requisitos regulamentares em evolução, sejam considerados ao desenvolver ou utilizar a IA em aplicações de negócio, e que os sistemas e aplicações de IA sejam desenvolvidos de acordo com os requisitos regulamentares relevantes.
  4. Adaptar os processos de segurança para garantir que os riscos em sistemas críticos de segurança que utilizam a IA sejam compreendidos e geridos.
Ler Mais