As apps de saúde mental proliferam nos Estados Unidos, mas escondem um lado “negro”

Nos Estados Unidos, as apps de saúde mental estão a preencher uma necessidade crítica sim, mas têm um lado sombrio, avança o Insider.

 

Nos Estados Unidos, a Loris, uma startup fundada em 2018, que apoia empresas a melhorarem o seu serviço de atendimento ao cliente, usou dados gerados a partir de conversas escritas com pessoas em “perigo” para criar um software de atendimento ao cliente “empático”. O problema é que esses dados vieram da Crisis Text Line, uma linha directa de prevenção de suicídio sem fins lucrativos, que usa inteligência artificial, e empresa-mãe da Loris.

No ano passado, uma investigação da plataforma “Politico” explicou como a Crisis Text Line criou a Loris para desenvolver e vender software de IA que pudesse orientar os profissionais de atendimento ao cliente nas suas conversas por chat com clientes através de «técnicas de redução de escala, estratégias de inteligência emocional e experiência de formação comprovadas». No centro do acordo estava o que a Crisis Text Line chamou de «o maior conjunto de dados de saúde mental do mundo» – 219 milhões de mensagens de mais de 6,7 milhões de conversas escritas, de Facebook Messenger e WhatsApp.

A exploração de dados para fins lucrativos é normal nos negócios da tecnologia moderna – motores de pesquisa, plataformas de social media e apps de streaming recolhem e lucram com os dados que obtêm dos utilizadores. Mas comercializar os dados de uma linha de apoio é muito diferente de lucrar com dados sobre os hábitos de compras online dos clientes.

Depois do escândalo e revolta gerados pela investigação da Politico, as empresas alegaram que usaram apenas dados anónimos. A verdade é que o caso tomou proporções tais que a Crisis Text Line se desvinculou da Loris e deu indicações para que toda a informação transferida anteriormente fosse apagada. Este é apenas um exemplo dos muitos fiascos de dados no âmbito da saúde mental.

Apesar de ser apresentada como a solução para um sistema de saúde com falhas, a crescente indústria da saúde mental baseada em tecnologia tem um lado negro. No ano passado, vários relatórios revelaram que, nos Estados Unidos, pessoas que precisavam de ajuda foram tratadas como potenciais fontes de lucro, em vez de pacientes. A investigação vem mostrar a perigosa combinação de soluções tecnológicas e falhas na legislação que colocam em risco pessoas altamente vulneráveis. E levantam questões importantes sobre o futuro dos cuidados de saúde mental e o papel da tecnologia associado.

Nos Estados Unidos, os investimentos de capital de risco em startups de saúde mental cresceram de 2,3 mil milhões de euros em 2020 para 5,5 mil milhões de euros em 2021. Mesmo com uma desaceleração em 2022, a saúde mental continuou a ser a área mais financiada na saúde digital.

Dois tipos de empresas surgiram neste cenário emergente. Apps baseadas em chatbot, como o Woebot, que oferecem «ferramentas e técnicas faça-você-mesmo clinicamente testadas», baseadas nos princípios da terapia cognitivo-comportamental para ajudar os utilizadores a lidarem com o stress diário e problemas emocionais. A principal atracção dessas apps é a garantia de suporte imediato, 24 horas por dia, sete dias por semana.

Devido às preocupações com os limites da tecnologia como substituta dos terapeutas humanos, as empresas que fazem o match entre utilizadores e terapeutas através de um marketplace virtual são mais prolíferas.

O atendimento online de saúde mental é atractivo porque permite que os utilizadores procurem apoio na privacidade e conforto do seu espaço pessoal. Mas, embora essas empresas possam oferecer alguma vantagem aos pacientes, a mentalidade de «agir rapidamente e mudar as coisas», que passou a definir a indústria da tecnologia, está a levá-las a enveredar pelo caminho do crescimento desmesurado.

A BetterHelp, uma plataforma de terapia online que se autodenomina «a maior plataforma de terapia do mundo» e diz ter mais de dois milhões de utilizadores, foi multada no mês passado pela Comissão Federal de Comércio dos Estados Unidos em 7,8 milhões de euros por ter disponibilizado dados confidenciais, incluindo e-mails, endereços IP e respostas a questionários de saúde, ao Facebook para que a plataforma pudesse usar essas informações para veicular anúncios da BetterHelp, direccionados a utilizadores semelhantes. Ainda que tenha chegado a um acordo, a BetterHelp recusou qualquer irregularidade e defendeu os seus métodos como «comportamento-padrão do sector».

Também o relatório de 2022 da Mozilla Foundation, uma organização sem fins lucrativos que tem como missão manter a internet saudável, mostrou práticas pouco éticas de segurança e privacidade de startups de saúde mental, como a Talkspace e a BetterHelp, concluindo que a grande maioria das apps rastreou, partilhou e comercializou dados dos seus utilizadores.

Um estudo recente de Joanne Kim do Technology Policy Lab, da Duke University, mostrava que algumas empresas de dados cobravam entre 75 e 100 mil euros por ano pelo acesso a dados que, segundo eles, incluíam informações sobre as condições de saúde mental dos indivíduos.

A legislação americana relacionada, que data dos anos 90, abrange apenas entidades como o consultório médico ou o hospital, ou seja, não se aplica a ferramentas de saúde digital e a grande maioria das apps de saúde mental.

Quando questionadas sobre violações de dados, geralmente muitas empresas escondem-se atrás do «consentimento legal» e a concordância com os termos e condições das plataformas quando os utilizadores se inscrevem. No mundo real, no entanto, o consentimento legal raramente se traduz em consentimento significativo.

Ler Mais