
ChatGPT vai poder identificar mais um dado importante (e adaptar as respostas)
A OpenAI está a trabalhar num novo sistema para o ChatGPT identificar automaticamente quando está a interagir com um adolescente ou menor de idade, de forma a activar uma experiência adequada à sua idade e bloquear conteúdo impróprio.
A empresa liderada por Sam Altman partilhou a intenção de continuar a melhorar a segurança de todos os utilizadores, concretamente, reforçando a protecção dos adolescentes com ferramentas eficazes, como os controlos parentais aplicados pela plataforma recentemente.
Neste sentido, a OpenAI anunciou que está a desenvolver um sistema que permitirá identificar se uma pessoa tem mais ou menos 18 anos, de modo a adaptar a experiência no ChatGPT com base na sua idade e necessidades, alterando automaticamente a forma como o chatbot responde a um adolescente ou a um adulto.
Conforme explicado num comunicado, citado pela Europa Press, quando um utilizador menor for identificado, este será automaticamente direccionado para uma «experiência do ChatGPT com políticas adaptadas à sua idade».
Nesta matéria, serão tomadas medidas que incluem desde o bloqueio de conteúdo sexual explícito, até «em casos excepcionais de angústia extrema» e a possível intervenção das forças se segurança externas.
Caso o modelo de IA não tenha a certeza da idade do utilizador ou disponha de informações incompletas, a ferramenta irá optar pela experiência de menores de 18 anos, a fim de garantir a segurança, enquanto os adultos terão opções para comprovar a sua idade e aceder às funcionalidades para maiores de idade.
Estas medidas juntam-se a outros aos controlos parentais, para que as famílias possam gerir a utilização do ChatGPT.
No final deste mês os pais poderão associar a sua conta à dos filhos e estabelecer regras de comportamento para as interacções.
Estas mudanças, que visam aumentar a segurança dos utilizadores, foram precedidas por um incidente que resultou no suicídio de um adolescente de 16 anos nos Estados Unidos, em Abril deste ano.
Os pais processaram a empresa devido ao papel que o ChatGPT desempenhou, uma vez que, após rever as conversas que o filho manteve com o chatbot durante vários meses, foi possível ver que, embora lhe tenha oferecido inúmeras vezes recursos para procurar ajuda, as salvaguardas acabaram por falhar e a conversa começou a girar em torno do suicídio.