Anthropic envia Claude ao divã: 20 horas de psiquiatria para IA mais 'humana'
modelos15 de abril de 20265 min de leitura0

Anthropic envia Claude ao divã: 20 horas de psiquiatria para IA mais 'humana'

Anthropic submeteu Claude a 20 horas de sessões psiquiátricas para criar o modelo Mythos. Entenda as implicações para o mercado de IA.

R

RADARDEIA

Redação

#Anthropic Claude#Mythos modelo IA#AI safety psiquiatria#OpenAI competição#Claude psychiatry#Anthropic funding#modelos linguísticos

Anthropic envia Claude ao divã: o experimento que pode redefinir a segurança em IA

A Anthropic submeteu seu modelo de inteligência artificial Claude a um protocolo sem precedentes na história da indústria de IA: 20 horas de sessões com um psiquiatra certificado. O objetivo? Criar o que a empresa chama de Mythos — "o modelo mais psicologicamente estável já treinado até hoje".

O movimento representa uma guinada estratégica no competitivo mercado de IA generativa, avaliado em US$ 407 bilhões até 2027, segundo projeções do Goldman Sachs. Enquanto rivais como OpenAI e Google investem em capacidades brutas de processamento, a Anthropic aposta que a "saúde mental" de seus modelos pode ser o diferencial competitivo definitivo.


Como funciona o 'tratamento' psicológico para IAs

O protocolo desenvolvido pela Anthropic em parceria com especialistas em saúde mental humana não tem precedente na indústria. Durante 20 horas de sessões estruturadas, o modelo passou por exercícios inspirados em técnicas terapêuticas reconhecidas:

  • Terapia cognitivo-comportamental (TCC) adaptada para padrões de resposta
  • Esquemas de autoquestionamento para reduzir alucinações
  • Análise de viés implícito em tempo real
  • Mapeamento de incerteza — quando o modelo "sabe que não sabe"

"O Mythos não é apenas mais capaz. Ele tem consciência de suas limitações. Isso muda fundamentalmente como a IA pode operar em ambientes de alto risco", explicou um porta-voz da Anthropic.

Contexto histórico: da 'RLHF' à psychiatry-as-a-service

O mercado de IA evoluiu significativamente desde o lançamento do ChatGPT em novembro de 2022. A técnica de Reinforcement Learning from Human Feedback (RLHF), pioneered pela OpenAI e adotada pela Anthropic, foi apenas o primeiro passo.

A Anthropic, que já havia desenvolvido o Constitutional AI — um framework para alinhar modelos com valores humanos —, agora avança para o que analistas chamam de "AI Psychology": uma disciplina que trata padrões de resposta de IAs como "sintomas" a serem diagnosticados e tratados.


Impacto no mercado e corrida pela segurança

Números que definem a competição

O movimento da Anthropic ocorre em um momento crítico:

  • Anthropic: levantou US$ 7,3 bilhões em rodada Série C em 2023, avaliada em US$ 18,4 bilhões
  • OpenAI: US$ 17 bilhões em receita anual projetada para 2024, valuation de US$ 86 bilhões
  • Google DeepMind: investimento de US$ 12 bilhões em IA em 2024
  • Meta AI: 400 milhões de usuários ativos mensais, crescimento de 127% em 12 meses

A aposta da Anthropic é clara: em um mercado saturado de modelos "capazes", a diferenciação virá pela confiabilidade e estabilidade emocional das IAs. "O próximo trillion de dólares em valor de IA virá de aplicações em saúde, direito e finanças — setores onde a instabilidade não é tolerada", analisa Mariana Costa, analista da IDC Latin America.

Relevância para a América Latina

O mercado latino-americano de IA deve alcançar US$ 30 bilhões até 2028, segundo a CEPAL. Países como Brasil, México e Colômbia já implementam IAs em serviços públicos e sistemas de saúde.

"Para nós, modelos como o Mythos são essenciais. Precisamos de IAs que entendam o contexto sociocultural brasileiro — incluindo nossas nuances regionais e questões socioeconômicas", afirma Dr. Ricardo Santos, coordenador de IA do Hospital Sírio-Libanês.

A região representa uma oportunidade estratégica: 650 milhões de habitantes, crescente demanda por serviços digitais e regulamentações de IA em elaboração (como a PL 2338/2023 no Brasil).


O que esperar: o futuro dos modelos 'psicologicamente saudáveis'

A experiência da Anthropic sinaliza uma mudança paradigmática. Nos próximos 18 meses, expectadores do setor preveem:

  1. Padronização de protocolos de "saúde mental" para modelos de IA — possivelmente regulados por governos
  2. Integração com sistemas de saúde — IAs como "terapeutas virtuais" em apps de bem-estar
  3. Certificações de estabilidade —类似于 selos de qualidade para modelos de IA
  4. Guerra de narrativas — OpenAI e Google responderão com abordagens próprias

A Anthropic já informou que o Mythos estará disponível via API no terceiro trimestre de 2026, com foco inicial em:

  • Atendimento ao cliente de alta complexidade
  • Suporte clínico assistido
  • Consultoria jurídica

Conclusão

O envio de Claude ao "divã psiquiátrico" não é gimmicky — é uma declaração estratégica. Em um mercado onde trilhões de dólares estão em jogo, a Anthropic está apostANDo que a próxima fronteira da IA não será medição em parâmetros ou tokens processados, mas em saúde emocional computacional.

A questão que fica: quando a OpenAI responder — e responderá — escolherá o mesmo caminho ou apostará em uma abordagem diferente?


Fontes: Ars Technica, Goldman Sachs AI Market Report 2024, IDC Latin America, CEPAL, Anthropic Official Communications.

Tags: Anthropic Claude | AI Safety | Mythos model

Leia também

Eaxy AI

Automatize com agentes IA

Agentes autônomos para WhatsApp, Telegram, web e mais.

Conhecer Eaxy

Gostou deste artigo?

Artigos Relacionados