Usa o ChatGPT no trabalho? Saiba o que não deve (mesmo) fazer

Sebastian Gierlinger, vice-presidente de engenharia da Storyblok, empresa de sistemas de gestão de conteúdos que tem como clientes a Netflix, Tesla e Adidas, e especialista em segurança, alertou para a partilha excessiva de informação com chatbots de IA, como o ChatGPT.

A inteligência artificial e os seus desenvolvimentos mais recentes são benéficas para os processos de trabalho, mas as novas capacidades destes chatbots generativos de IA também requerem mais cuidado e consciência, garante o especialista em segurança à Business Insider.

Quatro regras de ouro para interagir com chatbots de IA:

Não o use como se fosse uma rede social

Ao usar esses chatbots é importante lembrar que a conversa não é apenas entre o utilizador e a IA. Não há problema perguntar sobre sugestões de férias com mensagens como: “Quais são os melhores locais em Maio, com boas praias e pelo menos 25 graus?”

Mas, se for muito específico, podem surgir problemas. A empresa pode usar esses detalhes para treinar o próximo modelo de linguagem e alguém pode perguntar detalhes sobre si ao novo sistema, e partes da sua vida tornam-se pesquisáveis.

O mesmo se aplica à partilha de detalhes sobre o seu património ou situação financeira. Embora ainda não se conheçam casos desses, inserir dados pessoais no sistema e depois vê-los revelados nas pesquisas seria no mínimo grave.

Provavelmente já existem modelos capazes de calcular o seu património com base no local onde vive, onde trabalha e em detalhes sobre a sua família e o seu estilo de vida. Isso já será suficiente para calcular o seu património líquido e se é um alvo fácil para esquemas e fraudes, por exemplo.

Se tiver dúvidas sobre que detalhes partilhar, pergunte-se se gostaria de os divulgar no Facebook. Se a sua resposta for não, não os insira no LLM.

Siga as directrizes de IA da empresa

À medida que o uso de IA no local de trabalho se torna comum para tarefas como codificação ou análise, é crucial seguir as políticas de IA da sua empresa.

Sebastian Gierlinger revela que a Storyblok, por exemplo, tem uma lista de itens confidenciais que os colaboradores não têm permissão para inserir em qualquer chatbot ou LLM. Isso inclui informações como salários, dados sobre colaboradores e desempenho financeiro. E isso existe porque não querem que alguém digite perguntas como “Qual a estratégia de negócios da Storyblok” e o ChatGPT partilhe informação interna e confidencial.

Para a codificação, a Storyblok tem uma regra que a IA, como o Copilot da Microsoft, não pode ser responsabilizada por nenhum código. Todos os códigos gerados por IA têm de ser verificados por um developer humano antes de serem armazenados no seu repositório.

Use os LLM com cautela no trabalho

Na verdade, cerca de 75% das empresas ainda não têm uma política de IA. Muitos empregadores também não subscreveram ferramentas de IA corporativas e apenas disseram aos colaboradores que não podem usar IA no trabalho.

Mas, quer queiramos ou não, as pessoas recorrem ao uso de IA com as suas contas privadas. É aí que se torna importante ter cuidado com o que partilha num LLM.

No passado, não havia motivos para partilhar dados da empresa num site aleatório, mas agora, financeiros ou consultores que pretendam analisar um orçamento, por exemplo, poderiam facilmente fazer upload de números de empresas ou clientes no ChatGPT ou noutra plataforma e fazer perguntas. Sem perceber, estariam a partilhar dados confidenciais.

Conheça as diferenças entre chatbots

Também é importante saber as diferenças entre os vários chatbots de IA, pois nem todos são construídos da mesma forma.

Para Sebastian Gierlinger, os chatbots de IA mais perigosos são aqueles desenvolvidos internamente, os que encontramos em sites de companhias aéreas ou serviços de saúde por exemplo, que podem não investir em todas as actualizações de segurança.

Por exemplo, num chatbot de um site de serviços de saúde, o utilizador pode inserir dados de saúde pessoais numa triagem inicial, que podem informar outras pessoas sobre o seu historial clínico em caso de ciberataque.

À medida que os chatbots de IA se tornam mais humanos, somos levados a partilhar cada vez mais sobre inúmeros tópicos. Como regra, o especialista recomenda não usar todos os chatbots disponíveis às cegas e evitar ser muito específico, independentemente do LLM com quem se esteja a interagir.

Ler Mais