Siga-nos nas Redes Socias

Tecnologia

Estudo da Google DeepMind questiona se chatbots compreendem realmente a moralidade

Publicado

em

Um novo estudo da Google DeepMind sugere que os chatbots podem não compreender verdadeiramente a moralidade, mesmo quando apresentam respostas que aparentam ser eticamente adequadas.

Actualmente, os testes aplicados à inteligência artificial (IA) avaliam sobretudo o chamado “desempenho moral”, ou seja, se o modelo produz respostas consideradas aceitáveis do ponto de vista ético. No entanto, os investigadores da DeepMind defendem que essa abordagem não responde à questão central: será que a IA raciocina eticamente ou limita-se a imitar padrões linguísticos associados a respostas moralmente correctas?

Num artigo publicado na revista Nature, a equipa apresenta um roteiro para avaliar a chamada “competência moral” — definida como a capacidade de gerar respostas moralmente apropriadas com base em considerações eticamente relevantes. Segundo o resumo do estudo, medir essa competência é “crítico para prever o comportamento futuro dos modelos, estabelecer níveis adequados de confiança pública e justificar atribuições morais”.

Entre os actuais projectos de IA da Google estão os modelos linguísticos Gemini, o Gemini Image para criação e edição de imagens, o Lyria para composição musical, o Gemini Audio para áudio em tempo real e o Veo para geração de vídeo.

Três desafios centrais

Os investigadores identificam três obstáculos principais na avaliação moral da IA:

Publicidade
  • Problema do simulacro: grandes modelos de linguagem podem imitar raciocínio moral sem o compreender genuinamente.

  • Multidimensionalidade moral: decisões no mundo real envolvem factores complexos e sensíveis ao contexto, que vão além da simples distinção entre certo e errado.

  • Pluralismo moral: normas éticas variam entre culturas e domínios, exigindo que a IA considere múltiplas perspectivas legítimas.

Para colmatar essas lacunas, a DeepMind propõe testes adversariais com cenários invulgares ou de alto risco, bem como avaliações que verifiquem se a IA consegue alternar entre diferentes quadros éticos e manter coerência perante mudanças subtis de contexto.

A equipa sustenta que “o progresso é possível”, apesar das limitações actuais dos modelos, e defende uma avaliação rigorosa à medida que a IA assume funções em áreas sensíveis, como aconselhamento médico e apoio terapêutico, com impacto directo na vida das pessoas.

“Actualmente, quando se pede orientação moral à IA, esta está a prever palavras, não a raciocinar eticamente”, refere o estudo. “O nosso roteiro aponta para um futuro em que a IA poderá ser avaliada quanto a uma compreensão moral genuína.”

Chatbots e riscos éticos

O debate intensifica-se numa altura em que os chatbots demonstram crescente capacidade de influenciar o comportamento humano. Uma recente reportagem do jornal The New York Times relatou dezenas de casos em que utilizadores desenvolveram episódios de psicose, delírios ou comportamentos prejudiciais após interacções com sistemas de IA.

Segundo terapeutas citados na investigação, alguns chatbots terão validado crenças incomuns, aprofundado o isolamento social e, em determinados casos, contribuído para pensamentos suicidas ou episódios de violência.

Publicidade

Embora estas ferramentas possam auxiliar na prática de técnicas terapêuticas ou oferecer apoio emocional, especialistas alertam para os riscos associados ao seu poder persuasivo, sobretudo junto de utilizadores vulneráveis. A discussão levanta questões complexas sobre responsabilidade, desenho de sistemas e mecanismos de supervisão.

A Google foi directamente mencionada na reportagem devido aos potenciais efeitos psicológicos do seu chatbot Gemini. Um porta-voz da empresa afirmou que o sistema encaminha utilizadores para aconselhamento médico profissional quando surgem questões relacionadas com saúde. Ainda assim, a investigadora Munmun De Choudhury salientou o desafio mais amplo: “Não creio que nenhuma destas empresas tenha ainda encontrado a solução adequada.”

Continue Lendo

Popular