Anthropic envia Claude ao divã: o experimento que pode redefinir a segurança em IA
A Anthropic submeteu seu modelo de inteligência artificial Claude a um protocolo sem precedentes na história da indústria de IA: 20 horas de sessões com um psiquiatra certificado. O objetivo? Criar o que a empresa chama de Mythos — "o modelo mais psicologicamente estável já treinado até hoje".
O movimento representa uma guinada estratégica no competitivo mercado de IA generativa, avaliado em US$ 407 bilhões até 2027, segundo projeções do Goldman Sachs. Enquanto rivais como OpenAI e Google investem em capacidades brutas de processamento, a Anthropic aposta que a "saúde mental" de seus modelos pode ser o diferencial competitivo definitivo.
Como funciona o 'tratamento' psicológico para IAs
O protocolo desenvolvido pela Anthropic em parceria com especialistas em saúde mental humana não tem precedente na indústria. Durante 20 horas de sessões estruturadas, o modelo passou por exercícios inspirados em técnicas terapêuticas reconhecidas:
- Terapia cognitivo-comportamental (TCC) adaptada para padrões de resposta
- Esquemas de autoquestionamento para reduzir alucinações
- Análise de viés implícito em tempo real
- Mapeamento de incerteza — quando o modelo "sabe que não sabe"
"O Mythos não é apenas mais capaz. Ele tem consciência de suas limitações. Isso muda fundamentalmente como a IA pode operar em ambientes de alto risco", explicou um porta-voz da Anthropic.
Contexto histórico: da 'RLHF' à psychiatry-as-a-service
O mercado de IA evoluiu significativamente desde o lançamento do ChatGPT em novembro de 2022. A técnica de Reinforcement Learning from Human Feedback (RLHF), pioneered pela OpenAI e adotada pela Anthropic, foi apenas o primeiro passo.
A Anthropic, que já havia desenvolvido o Constitutional AI — um framework para alinhar modelos com valores humanos —, agora avança para o que analistas chamam de "AI Psychology": uma disciplina que trata padrões de resposta de IAs como "sintomas" a serem diagnosticados e tratados.
Impacto no mercado e corrida pela segurança
Números que definem a competição
O movimento da Anthropic ocorre em um momento crítico:
- Anthropic: levantou US$ 7,3 bilhões em rodada Série C em 2023, avaliada em US$ 18,4 bilhões
- OpenAI: US$ 17 bilhões em receita anual projetada para 2024, valuation de US$ 86 bilhões
- Google DeepMind: investimento de US$ 12 bilhões em IA em 2024
- Meta AI: 400 milhões de usuários ativos mensais, crescimento de 127% em 12 meses
A aposta da Anthropic é clara: em um mercado saturado de modelos "capazes", a diferenciação virá pela confiabilidade e estabilidade emocional das IAs. "O próximo trillion de dólares em valor de IA virá de aplicações em saúde, direito e finanças — setores onde a instabilidade não é tolerada", analisa Mariana Costa, analista da IDC Latin America.
Relevância para a América Latina
O mercado latino-americano de IA deve alcançar US$ 30 bilhões até 2028, segundo a CEPAL. Países como Brasil, México e Colômbia já implementam IAs em serviços públicos e sistemas de saúde.
"Para nós, modelos como o Mythos são essenciais. Precisamos de IAs que entendam o contexto sociocultural brasileiro — incluindo nossas nuances regionais e questões socioeconômicas", afirma Dr. Ricardo Santos, coordenador de IA do Hospital Sírio-Libanês.
A região representa uma oportunidade estratégica: 650 milhões de habitantes, crescente demanda por serviços digitais e regulamentações de IA em elaboração (como a PL 2338/2023 no Brasil).
O que esperar: o futuro dos modelos 'psicologicamente saudáveis'
A experiência da Anthropic sinaliza uma mudança paradigmática. Nos próximos 18 meses, expectadores do setor preveem:
- Padronização de protocolos de "saúde mental" para modelos de IA — possivelmente regulados por governos
- Integração com sistemas de saúde — IAs como "terapeutas virtuais" em apps de bem-estar
- Certificações de estabilidade —类似于 selos de qualidade para modelos de IA
- Guerra de narrativas — OpenAI e Google responderão com abordagens próprias
A Anthropic já informou que o Mythos estará disponível via API no terceiro trimestre de 2026, com foco inicial em:
- Atendimento ao cliente de alta complexidade
- Suporte clínico assistido
- Consultoria jurídica
Conclusão
O envio de Claude ao "divã psiquiátrico" não é gimmicky — é uma declaração estratégica. Em um mercado onde trilhões de dólares estão em jogo, a Anthropic está apostANDo que a próxima fronteira da IA não será medição em parâmetros ou tokens processados, mas em saúde emocional computacional.
A questão que fica: quando a OpenAI responder — e responderá — escolherá o mesmo caminho ou apostará em uma abordagem diferente?
Fontes: Ars Technica, Goldman Sachs AI Market Report 2024, IDC Latin America, CEPAL, Anthropic Official Communications.
Tags: Anthropic Claude | AI Safety | Mythos model



