Antes de continuar com sua rotina, vale a pena refletir sobre a segurança de seus dados pessoais, especialmente no que diz respeito à sua saúde. A crescente popularidade de chatbots de inteligência artificial generativa, como ChatGPT da OpenAI e Gemini do Google, tem levado muitos usuários a recorrer a essas plataformas para esclarecer preocupações médicas e buscar orientações sobre saúde. Entretanto, a prática de compartilhar informações médicas privadas com esses serviços pode trazer consequências sérias e inesperadas. Um exemplo alarmante dessa tendência é o encorajamento recente aos usuários da plataforma social X para que enviem seus exames de raios-X, ressonâncias magnéticas e tomografias por emissão de positrões (PET scans) ao chatbot Grok, com o objetivo de interpretá-los.
Os dados médicos são considerados uma categoria especial de informações que possui proteções federais. Essas regras definem, em grande parte, que apenas o próprio indivíduo pode decidir sobre o compartilhamento de seus dados. Contudo, o fato de que você pode fazer upload das suas informações médicas não implica que essa seja uma escolha prudente. Especialistas em segurança e privacidade já alertaram há tempo sobre os perigos de disponibilizar dados sensíveis em plataformas que não garantem a devida proteção. Ao fazer upload de informações pessoais, há o risco de que esses dados possam ser utilizados para treinar modelos de IA, resultando na potencial exposição de informações privadas em futuras ocasiões. Este é o tipo de situação que ninguém gostaria de enfrentar, e a privacidade é um direito que deve ser resguardado.
Os modelos de IA generativa costumam ser treinados a partir dos dados que recebem, com a suposição de que essas informações ajudam a aprimorar a precisão das respostas geradas. No entanto, a maneira como esses dados serão usados e compartilhados permanece nebulosa. Os usuários precisam confiar na transparência das empresas, que muitas vezes mudam suas políticas e práticas sem aviso prévio. É fundamental ter consciência do que está em jogo, pois dados médicos pessoais já foram encontrados em conjuntos de dados que alimentam esses modelos de IA. Isso significa que qualquer pessoa, incluindo prestadores de serviços de saúde, empregadores em potencial ou agências governamentais, pode ter acesso a essas informações.
Adicionalmente, a maioria dos aplicativos voltados para consumidores não se enquadra na proteção oferecida pela lei de privacidade em saúde dos Estados Unidos, conhecida como HIPAA, o que implica que os dados carregados não possuem um respaldo legal adequado. A situação se torna ainda mais complexa quando consideramos declarações feitas por Elon Musk, proprietário da X, que incentivou os usuários a compartilharem suas imagens médicas com o Grok, admitindo que os resultados do serviço estão em uma fase inicial. Musk confiou que o modelo de IA melhoraria sua capacidade de interpretar scans médicos com precisão ao longo do tempo. Contudo, permanece incerto quem terá acesso aos dados provenientes desse sistema; a política de privacidade do Grok menciona que a X compartilha informações pessoais de alguns usuários com um número indefinido de empresas “relacionadas”.
Portanto, é crucial ter em mente que o conteúdo que compartilhamos na internet pode ter consequências duradouras. Às vezes, a curiosidade ou a necessidade de respostas rápidas podem nos levar a tomar decisões que, à primeira vista, parecem inofensivas. No entanto, no mundo digital, o que parece um pequeno gesto pode se transformar em um grande problema. Assim, ao considerar a interação com chatbots para questões médicas, será que vale a pena o risco? A resposta, em muitos casos, pode estar em deixar os assuntos de saúde nas mãos de profissionais qualificados e evitar expor dados que poderiam ser comprometidos.