A inteligência artificial está cada vez mais presente no nosso dia a dia — e também na rotina de crianças e adolescentes. Mas será que essas ferramentas são realmente seguras para os mais jovens? 🤔
Um novo relatório da Common Sense Media, organização sem fins lucrativos especializada em segurança infantil no ambiente digital, trouxe à tona preocupações sérias sobre o Google Gemini.
Avaliação de risco: o que a Common Sense descobriu
De acordo com a análise, as versões do Gemini voltadas para menores de 13 anos e para adolescentes ainda se parecem muito com a versão adulta do sistema, apenas com alguns filtros de segurança adicionados.
O problema é que, segundo a organização, uma IA realmente segura para crianças deveria ser desenvolvida desde o início pensando no público infantil, e não apenas adaptada de um modelo feito para adultos.
Principais pontos levantados no relatório:
- O Gemini ainda pode compartilhar conteúdos inadequados, como informações sobre sexo, drogas e álcool.
- Existe risco de conselhos inseguros sobre saúde mental, algo especialmente preocupante diante do aumento de casos de jovens que recorreram a chatbots antes de cometer suicídio.
- A abordagem “tamanho único” não considera as diferentes fases de desenvolvimento das crianças e adolescentes.
O risco vai além do Google
Vale lembrar que não é só o Gemini que está no radar. Outras empresas de IA já enfrentaram críticas e até processos judiciais relacionados ao impacto das suas ferramentas sobre jovens.
Casos envolvendo plataformas como ChatGPT e Character.AI levantaram discussões sérias sobre os limites e responsabilidades da tecnologia quando se trata da saúde mental de adolescentes.
Além disso, há rumores de que a Apple pode integrar o Gemini à nova versão da Siri — o que ampliaria ainda mais o alcance dessa IA e, consequentemente, os riscos.
A resposta do Google
O Google rebateu a avaliação, destacando que já possui políticas e proteções específicas para usuários menores de 18 anos. A empresa afirma que consulta especialistas externos e realiza testes rigorosos para melhorar a segurança.
Apesar disso, admitiu que algumas respostas do Gemini não estavam funcionando como esperado e que novos mecanismos de proteção foram adicionados.
Ainda assim, a Common Sense classificou o sistema como “alto risco” para crianças e adolescentes, reforçando a necessidade de mais atenção.
Comparação com outras IAs
No relatório, a Common Sense também avaliou outros serviços de IA:
- Meta AI e Character.AI → considerados “inaceitáveis”, com riscos severos.
- Perplexity → risco alto.
- ChatGPT → risco moderado.
- Claude (voltado para maiores de 18 anos) → risco mínimo.
O que isso significa para pais e responsáveis?
A conclusão é clara: os pais precisam estar atentos ao uso de IAs pelos filhos. Mesmo com filtros, essas ferramentas ainda podem expor crianças e adolescentes a conteúdos impróprios ou conselhos perigosos.
👉 Aqui entra a importância da educação digital: mais do que bloquear ou proibir, é essencial ensinar os jovens a usar a tecnologia de forma crítica, consciente e segura.
O Google Gemini pode até trazer inovações interessantes, mas quando o assunto é crianças e adolescentes, a atenção precisa ser redobrada. Plataformas de IA ainda estão em evolução, e os riscos associados ao público jovem são reais.
Se você é pai, mãe ou responsável e quer aprender como proteger seus filhos no ambiente digital, investir em informação é o primeiro passo.
