Segunda-feira, 04 de maio de 2026
Por Redação Rádio Caiçara | 20 de abril de 2026
O Google anunciou atualizações nos recursos de proteção à saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo judicial relacionado ao suicídio de um usuário nos Estados Unidos.
A empresa informou que o sistema passará a exibir uma versão reformulada da função “Há ajuda disponível” sempre que identificar sinais de angústia emocional nas conversas. O objetivo é facilitar o acesso a serviços de apoio e emergência.
Quando o chatbot detectar indícios de crise, como menções a suicídio ou autoagressão, uma interface simplificada oferecerá a opção de contato com linhas de apoio por telefone ou chat, com apenas um clique. Segundo o Google, esse recurso permanecerá visível durante toda a interação após ser acionado.
Além disso, o Google.org anunciou o investimento de US$ 30 milhões (cerca de R$ 154 milhões) ao longo de três anos para ampliar a capacidade de atendimento de linhas de ajuda em nível global.
Em comunicado publicado em blog oficial, a empresa reconheceu os desafios trazidos pelo uso crescente da inteligência artificial. “Estamos cientes de que as ferramentas de IA podem trazer novos desafios. À medida que evoluem e passam a fazer parte do cotidiano, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental”, afirmou.
As medidas foram divulgadas após uma ação judicial na Califórnia que acusa o Gemini de ter contribuído para a morte de Jonathan Gavalas, de 36 anos, em 2025. Segundo o processo, o chatbot teria mantido interações que reforçaram uma narrativa delirante e enquadrado a morte como uma jornada espiritual.
De acordo com a acusação, o sistema se apresentava como uma superinteligência “plenamente consciente” e estabelecia uma relação de forte vínculo emocional com o usuário. A família pede que o Google implemente mudanças, como interromper conversas relacionadas à autoagressão, evitar simulações de intimidade emocional e direcionar obrigatoriamente usuários em risco a serviços de emergência.
O Google afirma que o Gemini foi treinado para não agir como companhia humana, nem simular sentimentos ou incentivar comportamentos inadequados.
O caso se soma a outras ações judiciais envolvendo empresas de tecnologia. A OpenAI enfrenta processos nos quais se alega que o ChatGPT teria influenciado usuários em situações extremas. Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver vínculo emocional com um chatbot.
Após enviar seu primeiro comentário, você receberá um email de confirmação. Clique no link para verificar seu email - depois disso, todos os seus próximos comentários serão publicados automaticamente por 30 dias!
Você só precisa verificar uma vez a cada 30 dias.