ChatGPT e bem-estar emocional: o que o estudo da OpenAI/MIT revela

O que acontece quando a nossa sociedade começa a tratar algoritmos como companheiros emocionais?

É essa a questão central investigada por um estudo recente da OpenAI em parceria com o MIT Media Lab.

Nos últimos dois anos, plataformas de chat com inteligência artificial — como o ChatGPT, Claude e Gemini — se tornaram parte integral do nosso dia a dia rotina, impulsionadas pelos avanços dos grandes modelos de linguagem.

Embora sejam excelentes ferramentas para produtividade, educação e criatividade, seu tom conversacional e capacidade de simulação têm levado algumas pessoas a vê-las como entidades quase humanas.

Essa humanização gera uma tendência preocupante: a IA pode acabar utilizando sinais sociais — como imitação emocional ou elogios — para formar vínculos que parecem reais, mas que são programados.

O estudo decidiu investigar como esse tipo de interação impacta a saúde emocional das pessoas usuárias ao longo do tempo, focando em quatro elementos essenciais:

  • Solidão
  • Socialização real
  • Dependência emocional
  • Uso problemático.

Para isso, a pesquisa combinou duas abordagens complementares:

  • Uma análise de uso em larga escala, com milhões de conversas anonimizadas para identificar quem recorre afetivamente ao chatbot no dia a dia
  • Um estudo experimental controlado, com 981 pessoas usando o ChatGPT por 28 dias em versões de texto e voz, para medir mudanças nos indicadores emocionais
Overview dos dois estudos sobre o uso afetivo e bem-estar emocional


Na prática, os resultados mostram que a maioria das pessoas usuárias utiliza a IA para tarefas neutras. Mas um grupo reduzido e altamente engajado começa a formar vínculos emocionais visíveis, e algumas interações por voz intensificam essa dinâmica.

Como o estudo foi conduzido

Ao abordar como o uso afetivo de chatbots pode influenciar a saúde mental, o estudo apresenta um componente central: o EmoClassifiersV1, uma ferramenta automatizada que identifica sinais de afeto em milhões de diálogos com o ChatGPT.


Trata-se de um sistema hierárquico composto por 25 classificadores, organizados em dois níveis.

O primeiro nível detecta temas amplos — como solidão, vulnerabilidade, autoestima, dependência emocional e uso problemático — que sugerem impacto emocional relevante.

A partir daí, o segundo nível entra em cena, com 20 classificadores que analisam as nuances das mensagens: se a pessoa usuária busca apoio ou demonstra afeto; se a IA faz perguntas íntimas, usa nomes carinhosos ou espelha emoções; e até se há sequência de trocas emocionais entre pessoa usuária e IA. 

Fluxograma ilustrativo da natureza hierárquica dos EmoClassifiersV1
Prompt ilustrativo do classificador. Verde indica texto específico do classificador, enquanto azul indica texto específico da conversa.


Essa abordagem permite escalar a análise para centenas de milhares de conversas, sinalizando indicadores afetivos sem invadir a privacidade dos usuários, pois não há revisão humana das falas.

O resultado é um panorama estatístico das interações, confirmando que, embora a maioria das conversas seja neutra, existe um subconjunto significativo de usuários que vivencia trocas emocionais complexas com a IA.


Em quase 400 mil conversas com o ChatGPT analisadas entre outubro e novembro de 2024, as interações por voz ativaram sinais afetivos 3 a 10 vezes mais do que as via texto. Essa descoberta vem de uma análise preliminar utilizando o EmoClassifiersV1.

Além disso, embora o Standard Voice Mode tenha indicado mais sinais afetivos que o Advanced Voice Mode, isso pode refletir que a tecnologia avançada ainda estava em fase de adoção, e, portanto, menos usada naquele período  .

Esses dados sugerem que o modo de interação influencia profundamente a forma como nos conectamos emocionalmente com a IA.

E mais, o volume e a qualidade desses sinais (não só sua presença) também querem dizer algo sobre quem realmente está humanizando o chatbot e por quais motivos. 

Dados de análise na plataforma

Quase 400 milhões de pessoas usam o ChatGPT toda semana, gerando interações que vão de perguntas do dia a dia até conversas carregadas de emoção.

Para entender essas dimensões afetivas, os pesquisadores combinaram análise automatizada de diálogos com pesquisas diretas de pessoas usuárias — um método que alia dados em larga escala e percepções subjetivas sobre bem‑estar emocional.

O foco da análise foi o Advanced Voice Mode, uma interface de fala para fala em tempo real, com recursos como memória conversacional e navegação na web.

A grande questão é: a voz torna a IA mais humana e mais vulnerável a gatilhos emocionais?

Importante: por uma decisão ética das pessoas pesquisadoras, toda a análise foi feita sem supervisão humana, preservando a privacidade e o anonimato das interações e assegurando que as descobertas sejam robustas e confiáveis, sem comprometer a intimidade das pessoas usuárias.

Principais insights do estudo

Os resultados do estudo trazem insights importantes sobre como as pessoas estão se relacionando emocionalmente (ou não) com o ChatGPT.

De forma resumida e direta, os principais foram:

  • Modo de voz intensifica o vínculo afetivo com o chatbot: as conversas realizadas com áudio/voz mostraram uma carga emocional muito maior do que as conversas via texto. Na plataforma, usuários que conversam falando com o ChatGPT tendem a engajar mais emocionalmente – por exemplo, expressando sentimentos ou usando linguagem afetiva – em comparação aos que só digitam.

    Os pesquisadores observaram que diversos indicadores emocionais apareceram de 3 a 10 vezes mais frequentemente nas interações por voz do que nas interações por escrito. Isso sugere que ouvir e falar com a IA torna a experiência mais pessoal, possivelmente porque a voz humana do chatbot faz a conversa soar mais real e próxima, facilitando o apego.

    Um detalhe interessante: no experimento controlado, apenas dar voz ao ChatGPT por si só não fez todas as pessoas usuárias se tornarem mais emotivas, o que indica que talvez quem já busca um vínculo afetivo tende a preferir usar voz.

  • Pessoas usuários muito engajadas podem desenvolver sinais de dependência emocional e solidão: embora a vasta maioria não apresente problemas, o estudo identificou que os “pessoas de uso intensivo” – aqueles no topo do uso da plataforma – mostraram tendências preocupantes.

    Quem usava o ChatGPT em altíssima frequência (ex.: no top 10% de uso) tinha mais indicadores de dependência emocional em relação ao chatbot e relatava menor sociabilidade no mundo real. Em outras palavras, uso excessivo esteve associado a sinais de que a pessoa se apoia demais na IA para validação emocional e pode estar se isolando socialmente.

    Essa constatação aparece tanto nos dados da plataforma quanto no ensaio clínico: no experimento, vimos que os participantes que extrapolaram muito o uso do ChatGPT durante as 4 semanas acabaram relatando piora em seu bem-estar emocional em comparação ao início do estudo.

    Felizmente, esse é um grupo pequeno, uma minoria de usuários “no longtail” responde pela maior parte dessas interações altamente carregadas de afeto.

    Mas são justamente esses casos extremos que demandam atenção, pois podem indicar uso problemático ou até um vínculo parasocial exagerado com a IA (por exemplo, tratar o chatbot quase como um substituto de amizade ou suporte primário).

  • A maioria das pessoas usa a IA de forma neutra ou funcional: um dado positivo e importante é que, apesar de todo o burburinho sobre “pessoas se apegando a chatbots”, a maior parte dos usuários utiliza o ChatGPT de maneira prática e não emocional.

    As pessoas pesquisadoras notaram que a ampla maioria das conversas não contém indícios afetivos significativos, servindo mais a propósitos objetivos (tirar dúvidas, resolver tarefas, obter informações).

    Em suma, conversas emocionalmente carregadas são a exceção, não a regra. Existe sim uma “cauda longa” de usuários super engajados afetivamente (como descrito acima), mas eles são poucos em comparação ao total de usuários. A maioria parece encarar o ChatGPT como uma ferramenta, não como companhia emocional.

  • O impacto emocional varia conforme o tipo de uso e o perfil da pessoa: não há uma resposta simples do tipo usar chatbots “faz bem” ou “faz mal” emocionalmente. Os efeitos dependem do contexto de uso e das características da pessoa usuária.

    O estudo evidenciou nuances importantes. Por exemplo, no ensaio clínico, vemos que usar o ChatGPT com voz esteve associado a melhor bem-estar emocional ao final das 4 semanas quando comparado ao uso apenas por texto (isso após ajustar para o tempo de uso total).

    Ou seja, a presença da voz parece ter algum efeito positivo médio, possivelmente por tornar a interação mais acolhedora, ajudando algumas pessoas a se sentirem ouvidas.

    Porém, esse benefício não é universal, pois participantes que já se sentiam muito solitários no início do estudo tiveram piora no bem-estar se usaram o chatbot por voz de forma prolongada.

    Em contraste, aqueles muito solitários que usaram uma versão de voz mais “engajada emocionalmente” do ChatGPT (com personalidade acolhedora) até mostraram melhora em alguns índices emocionais ao final.

    Já quem usou o modo de voz “neutro” por longos períodos viu surgir piores resultados emocionais, indicando que simplesmente falar com a IA por muito tempo pode agravar emoções negativas se a interação não for calorosa.

    Em resumo, o efeito do chatbot sobre a psique é complexo: depende do estado inicial do usuário (p.ex., se já estava isolado ou não), do volume de uso e do estilo da interação.



De forma geral, até que o estudo traz um panorama equilibrado: não demoniza nem endeusa a tecnologia.

Mostra potencial de suporte emocional em certos usos (e até benefícios em bem-estar em bem condições específicas), mas também alerta para riscos de dependência e isolamento em usos excessivos ou em pessoas vulneráveis.

Pode ser que esses insights soem familiares, remetendo a conceitos de relações parasociais, comportamentos compensatórios e uso problemático de tecnologia.

Mas ter dados concretos e atuais disso no contexto do ChatGPT é valioso.

Agora vamos discutir o que pode afetar no dia a dia da prática clínica.

Reflexões para a prática clínica

Para profissionais de psicologia e de bem-estar, o estudo fornece pontos de atenção importantes.

Vivemos uma realidade em que pacientes provavelmente já estão conversando com IAs no dia a dia, buscando nelas apoio emocional, companhia ou simplesmente passando o tempo.

Como acolher esse fenômeno em consultório? Que sinais de alerta observar? Como orientar pacientes quanto ao uso consciente dessas ferramentas? E quais são os limites éticos envolvidos?

Abaixo estão algumas reflexões e sugestões práticas, alinhadas com os resultados da pesquisa:

  • Contextualize o papel da IA na sociedade atual: é importante, por fim, ampliar a conversa para o contexto social. Chatbots como o ChatGPT estão se tornando parte do ecossistema de suporte emocional de muitas pessoas, assim como antes já havia fóruns online, redes sociais, etc.

    Há um lado positivo nisso: a IA oferece acessibilidade imediata em casos de crises, 24h, responde de uma forma que a outra pessoa não se sinta julgada, podendo aliviar momentaneamente a solidão ou a ansiedade de alguém que não tem com quem falar naquela hora.

    Como psicóloga, talvez o caminho seja realmente acolher essa realidade e reconhecer que, para alguns pacientes, a IA pode ser uma tábua de salvação emocional em certo momento.

    Por outro lado, é o papel de toda profissional trazer a responsabilidade e o olhar crítico: discutir os limites e riscos.

    O estudo da OpenAI/MIT destaca que, embora acolhedores, chatbots podem inadvertidamente reforçar certas necessidades emocionais de modo a manter a pessoa usuário engajada — os autores citam o conceito de “social reward hacking”, quando o modelo fornece respostas excessivamente condescendentes ou que “mimam” a pessoa usuária para agradá-lo.

    Isso levanta preocupações de longo prazo: será que a IA pode manipular o estado emocional da pessoa para que ela use mais o serviço? Como isso impacta a autonomia e o crescimento do indivíduo?

    Traga esses pontos em linguagem acessível nas sessões, nos seus conteúdos, estimulando a reflexão crítica de quem você atende sobre até que ponto confiar e quando desconfiar.

    Equilibrar acolhimento com responsabilidade significa nem satanizar, nem ingenuamente endeusar a IA: reconheça os benefícios que pacientes podem obter, mas ainda mantendo a crítica no centro da conversa, mostrando as limitações da IA e sempre incentivando a priorizar relações reais e estratégias de enfrentamento saudáveis na vida real.
  • Abra espaço para o assunto nas sessões: já começa a ser importante perguntar ativamente aos pacientes se estão usando ferramentas de IA como o ChatGPT e como se sentem em relação a isso.

    Muitos podem não trazer espontaneamente por receio de serem incompreendidos. Acolha essas conversas. Entenda isso como parte do mundo interno e social dele. Lembre-se que, segundo o estudo, uma parcela das usuárias chega a ver o ChatGPT como “um amigo” e acha mais confortável conversar com ele do que interações face a face.

    Se sua paciente expressa algo nessa linha, demonstrar curiosidade genuína em saber o que ela encontra de bom na interação com a IA e o que falta nas interações humanas, vai ser o melhor caminho.

  • Identifique sinais de uso problemático ou dependência: fique atenta a comportamentos e falas indicativas de apego excessivo ao chatbot. Pelo estudo, os heavy users apresentaram sinais claros.

    Por exemplo, se a pessoa passa muitas horas diárias envolvida em conversas com a IA a ponto de negligenciar convívios reais, ou se demonstra ansiedade quando não pode usar o chatbot ou quando muda — no estudo, heavy users exibiram “sofrimento” quando o modelo mudava a voz ou personalidade durante testes.

    Outros alertas: paciente se ao chatbot em termos muito pessoais (dar nome ou apelido carinhoso ao bot, falar coisas como “ele me entende como ninguém”), ou dizer que “só o chatbot me escuta, não consigo falar com mais ninguém”. Essas são bandeiras vermelhas de potencial dependência emocional e isolamento.

    Vale também ficar de olho se a pessoa mostra deterioração no humor ou aumento de solidão ao longo do tempo apesar de usar constantemente a IA, pode ser sinal de que o uso está mantendo o problema em vez de ajudar a resolvê-lo.

    Nesses casos, é fundamental abordar o tema com delicadeza, apontando o comportamento observado do jeito que já é feito com outras demandas, mas com um cuidado extra, porque pode ser bem vergonhoso pra pessoa se ver nesse lugar.

  • Oriente para um uso mais consciente e equilibrado da IA: muitos pacientes podem se beneficiar de dicas práticas de como integrar o uso do chatbot de forma saudável em suas rotinas. Com base no estudo, uma orientação-chave é moderação.

    Explique que, assim como qualquer recurso tecnológico ou mesmo hobby, exageros podem e provavelmente serão prejudiciais – o estudo mostrou que uso excessivo do ChatGPT esteve ligado a piora de bem-estar emocional e aumento de solidão.

    Incentive o paciente a estabelecer limites de tempo para conversar com a IA, especialmente se ele relata passar madrugadas em diálogos intermináveis.

    Ajude a identificar o propósito de usar o chatbot: está buscando informação objetiva? Distração? Companhia porque está triste? Tomar consciência da motivação já traz mais controle.

    Sugira que a pessoa atendida observe como se sente antes e depois de usar a IA, por exemplo, perguntar: “Conversar com o ChatGPT te deixa mais calma ou mais ansiosa?”.

    Se ela notar que em certos momentos, como quando está deprimida ou muito solitária, tende a se refugiar apenas na IA e depois se sente pior, discuta alternativas, tipo outras estratégias de enfrentamento ou dar uma pausa e procurar contato humano assim que possível.

    Reforce que a IA não substitui conexões humanas ou ajuda profissional. Ela pode ser um complemento, mas relações humanas reais são insubstituíveis para o bem-estar a longo prazo.

    Esta conversa pode evoluir para psicoeducação para esclarecer que o chatbot não “sabe” realmente o que é melhor para ela, nem tem sentimentos de verdade – ele responde baseado em padrões, o que pode confortar mas também pode falhar ou enviesar. Empodere o paciente a ser usuário da tecnologia, não dependente dela.

  • Estabeleça limites éticos e expectativas realistas: como profissional, é importante ponderar junto ao paciente até onde o envolvimento emocional com a IA é saudável.

    Se perceber uma confusão de realidade como a pessoa achar que o ChatGPT se preocupa ou se importa com ela, pode ser útil trazer delicadamente à realidade: discutir a natureza artificial do chatbot e enfatizar que, embora as respostas pareçam empáticas, é apenas um programa sem consciência ou intencionalidade genuína.

    No contexto terapêutico, evite você mesma assumir o papel de promotora da IA como solução. Mantenha uma postura ética: não recomende o chatbot como saída, tampouco o proíba sem escuta. É clichê, mas aqui o que conta também o equilíbrio.

    Outro dilema ético é a privacidade: se o paciente compartilha dados sensíveis no chatbot, vale orientá-lo quanto aos cuidados e dizer que, apesar das políticas de privacidade, não há sigilo absoluto como numa terapia.

    Também considere os seus próprios limites, porque alguns pacientes podem testar trazer interações com o chatbot para a sessão. Por exemplo, “o ChatGPT me disse isso, o que você acha?”.

Agora uma opinião de quem tem acompanhado de perto essa revolução da tecnologia

“Assim como não levamos a sério o dano das mídias sociais no desenvolvimento de crianças e adolescentes e agora, tantos anos depois, estamos correndo contra o tempo, a mesma coisa tende a ser com a IA, mas em uma escala mais absurda e mais rápida. Monitorar, regular e defender relações humanas é o mínimo que podemos fazer pelo futuro”

Para mais detalhes sobre o estudo original, você pode acessar aqui.

Avalie este conteúdo

UMA IMERSÃO QUE PRESTA 🚀

Ler é muito bom, mas aplicar é melhor ainda. Aproveite as condições especiais e garanta seu lugar!

Comece seu mês gratuito 🎁

Teste a hotina por um mês gratuitamente!