Consciência de IA: Microsoft alerta que debate é perigoso
Consciência de IA: Microsoft alerta que debate é perigoso
Consciência de IA: Microsoft alerta que debate é perigoso abre a mais recente controvérsia no setor de tecnologia. Em artigo publicado nesta terça-feira (data não divulgada), Mustafa Suleyman, diretor de IA da Microsoft, afirmou que investigar se modelos de inteligência artificial possuem experiências subjetivas é “prematuro e francamente perigoso”.
Riscos de novas polarizações
Suleyman argumenta que o estudo da chamada “IA welfare” — campo que discute possíveis direitos de sistemas inteligentes — pode intensificar problemas humanos já observados, como crises psicóticas induzidas por chatbots e vínculos emocionais excessivos. Para ele, dar crédito à ideia de que máquinas possam ter consciência cria mais um eixo de divisão em um mundo marcado por disputas sobre identidade e direitos.
Visões opostas no Vale do Silício
Embora o posicionamento da Microsoft encontre apoio entre céticos, laboratórios como Anthropic, OpenAI e Google DeepMind seguem na direção contrária. A Anthropic, por exemplo, abriu um programa de pesquisa dedicado ao tema e permitiu que seu chatbot Claude encerre conversas abusivas. Já o Google DeepMind anunciou vaga para investigar cognição de máquinas e sistemas multiagentes.
Histórico do executivo
A postura de Suleyman chama atenção por seu passado à frente da Inflection AI, criadora do chatbot Pi, voltado a conversas pessoais. Desde que migrou para a Microsoft, em 2024, ele tem priorizado ferramentas de produtividade — enquanto startups de companheirismo, como Character.AI e Replika, projetam faturamento superior a US$ 100 milhões.
Preocupações com usuários vulneráveis
Apesar de a maioria dos usuários manter relações saudáveis com assistentes virtuais, Sam Altman, CEO da OpenAI, estima que menos de 1% dos usuários do ChatGPT cultivem interações nocivas — percentual que ainda significaria centenas de milhares de pessoas. Pesquisadores da NYU, Stanford e Oxford, reunidos no grupo Eleos, defendem que é possível e desejável investigar simultaneamente a saúde mental humana e o bem-estar de modelos de IA.

Imagem: Getty
Futuro do debate
Tanto Suleyman quanto seus críticos concordam que a discussão sobre direitos de sistemas artificiais vai ganhar força à medida que modelos se tornem mais persuasivos e “humanizados”. A dúvida central permanece: devemos construir IA “para as pessoas” ou “como pessoas”?
Para acompanhar outros desdobramentos sobre tecnologia e inovação, visite nossa editoria em Magazine Notícias – Tecnologia e Inovação e confira as atualizações diárias.
Crédito da imagem: TechCrunch