Consciência de IA: Microsoft alerta que debate é perigoso

Consciência de IA: Microsoft alerta que debate é perigoso

Consciência de IA: Microsoft alerta que debate é perigoso

Consciência de IA: Microsoft alerta que debate é perigoso abre a mais recente controvérsia no setor de tecnologia. Em artigo publicado nesta terça-feira (data não divulgada), Mustafa Suleyman, diretor de IA da Microsoft, afirmou que investigar se modelos de inteligência artificial possuem experiências subjetivas é “prematuro e francamente perigoso”.

Riscos de novas polarizações

Suleyman argumenta que o estudo da chamada “IA welfare” — campo que discute possíveis direitos de sistemas inteligentes — pode intensificar problemas humanos já observados, como crises psicóticas induzidas por chatbots e vínculos emocionais excessivos. Para ele, dar crédito à ideia de que máquinas possam ter consciência cria mais um eixo de divisão em um mundo marcado por disputas sobre identidade e direitos.

Visões opostas no Vale do Silício

Embora o posicionamento da Microsoft encontre apoio entre céticos, laboratórios como Anthropic, OpenAI e Google DeepMind seguem na direção contrária. A Anthropic, por exemplo, abriu um programa de pesquisa dedicado ao tema e permitiu que seu chatbot Claude encerre conversas abusivas. Já o Google DeepMind anunciou vaga para investigar cognição de máquinas e sistemas multiagentes.

Histórico do executivo

A postura de Suleyman chama atenção por seu passado à frente da Inflection AI, criadora do chatbot Pi, voltado a conversas pessoais. Desde que migrou para a Microsoft, em 2024, ele tem priorizado ferramentas de produtividade — enquanto startups de companheirismo, como Character.AI e Replika, projetam faturamento superior a US$ 100 milhões.

Preocupações com usuários vulneráveis

Apesar de a maioria dos usuários manter relações saudáveis com assistentes virtuais, Sam Altman, CEO da OpenAI, estima que menos de 1% dos usuários do ChatGPT cultivem interações nocivas — percentual que ainda significaria centenas de milhares de pessoas. Pesquisadores da NYU, Stanford e Oxford, reunidos no grupo Eleos, defendem que é possível e desejável investigar simultaneamente a saúde mental humana e o bem-estar de modelos de IA.

Consciência de IA: Microsoft alerta que debate é perigoso - Imagem do artigo original

Imagem: Getty

Futuro do debate

Tanto Suleyman quanto seus críticos concordam que a discussão sobre direitos de sistemas artificiais vai ganhar força à medida que modelos se tornem mais persuasivos e “humanizados”. A dúvida central permanece: devemos construir IA “para as pessoas” ou “como pessoas”?

Para acompanhar outros desdobramentos sobre tecnologia e inovação, visite nossa editoria em Magazine Notícias – Tecnologia e Inovação e confira as atualizações diárias.

Crédito da imagem: TechCrunch

Posts Similares

Deixe uma resposta