Sam Altman, da OpenAI, afirma que interações sensíveis com inteligência artificial não têm a mesma proteção legal de sessões com psicólogos
O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que a IA não garante confidencialidade como ocorre com profissionais de saúde mental.
É urgente estabelecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.
Conversas com IA não têm sigilo legal garantido

Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fins terapêuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional algo que não se aplica ao ChatGPT.
-
Por mais de 400 anos, marinheiros relataram cruzar um oceano que brilhava no escuro como neve, sem ondas e sem reflexos, apenas um brilho uniforme se estendendo até o horizonte, e em 2019 um satélite registrou o fenômeno cobrindo mais de 100.000 km² por mais de 40 noites seguidas ao sul de Java, mas os cientistas ainda não sabem exatamente o que desencadeia o processo
-
Japão vira referência com processo genial que recicla 100 toneladas de plástico por dia usando técnica que remove contaminantes, sensores ópticos que separam PP e PE em segundos e linhas industriais que transformam toneladas de resíduos em paletes reutilizáveis.
-
China criou máquina ‘impossível’ que muda a agricultura ao combinar drones, tratores autônomos com navegação centimétrica, sensores e inteligência artificial
-
A cidade flutuante movida a 2 reatores nucleares que abandona o vapor, usa campos eletromagnéticos para lançar aeronaves ao céu e inaugura uma nova era dos porta-aviões de guerra
“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT”, declarou o CEO da OpenAI.
Segundo as políticas da empresa, as interações com a IA podem ser lidas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.
Dados podem ser usados até mesmo contra o usuário
Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indevidos da plataforma. Isso significa que, ao contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT pode registrar e revisar tudo que é dito na conversa.
A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.
ChatGPT é ferramenta, não substituto de terapia

A fala de Altman também serve de alerta sobre a confusão entre tecnologia e cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, não substitui a escuta clínica de um psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.
Especialistas reforçam que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, o melhor caminho ainda é buscar ajuda profissional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.
Você já usou IA para desabafar ou pedir conselhos? Acredita que ela deveria oferecer sigilo como os profissionais da saúde? Deixe sua opinião nos comentários.

Seja o primeiro a reagir!