A OpenAI anunciou o lançamento de novos controles parentais no ChatGPT, marcando um passo importante para tornar o uso da inteligência artificial mais seguro para adolescentes.
A partir de agora, pais e responsáveis poderão conectar suas contas às dos filhos, ajustando configurações que garantem uma experiência mais adequada à idade.
O anúncio chega em meio a um debate crescente sobre o uso de chatbots por menores de idade — e surge após casos que levantaram preocupações sobre a segurança digital de adolescentes em interações com IA.
Como funcionam os novos controles parentais
O processo de configuração é simples.
Os pais enviam um convite para o adolescente conectar as contas. Depois que o convite é aceito, o responsável pode gerenciar as configurações diretamente do próprio painel.
Também é possível o movimento inverso — o adolescente pode convidar o responsável para o vínculo.
Se a conta for desvinculada, os pais recebem uma notificação imediata.
Entre as principais funções disponíveis estão:
- Definir horários de uso, criando períodos de “silêncio digital”;
- Desativar o modo de voz, impedindo interações faladas;
- Bloquear o recurso de memória, evitando que o ChatGPT armazene histórico de conversas;
- Remover a geração de imagens, limitando a ferramenta a respostas apenas em texto;
- Optar por sair do treinamento de modelos, impedindo que as conversas do adolescente sejam usadas para aprimorar a IA.
Além dessas opções, a OpenAI implementou proteções automáticas extras para contas de adolescentes vinculadas, reduzindo o acesso a conteúdos com temas sensíveis, como violência, desafios virais e padrões de beleza extremos.
Um passo para o uso mais seguro da IA entre jovens
Segundo Robbie Torney, diretor sênior de Programas de IA da Common Sense Media, as novas ferramentas representam “um bom ponto de partida” para ajudar os pais a administrar o uso da IA pelos filhos.
Torney ressalta, porém, que os controles parentais são apenas uma parte da solução.
“Eles funcionam melhor quando combinados com conversas abertas sobre o uso responsável da tecnologia e regras familiares claras sobre tempo de tela e privacidade”, explica.
Essa visão é compartilhada por Alex Ambrose, analista da Information Technology and Innovation Foundation, que vê na iniciativa da OpenAI um avanço significativo.
Ela destaca que nem todas as famílias têm tempo ou conhecimento técnico para acompanhar o que os filhos fazem online — e que sistemas automatizados podem ser um apoio valioso.
Evitando a dependência excessiva da IA
Especialistas alertam que, embora as ferramentas de IA possam ser úteis, é importante estabelecer limites saudáveis.
O ex-agente do FBI Eric O’Neill, autor de Cybercrime: Cybersecurity Tactics to Outsmart Hackers and Disarm Scammers, defende que a supervisão parental deve incentivar a autonomia criativa das crianças.
“Há algo mágico em escrever a primeira frase de um texto sem que a IA entregue a resposta pronta”, afirma O’Neill.
“A tecnologia é poderosa, mas o uso precoce e excessivo pode reduzir a capacidade de imaginar e criar.”
Segundo ele, pais precisam agir antes que as crianças passem a depender da IA para pensar ou produzir conteúdo.
Reação do mercado e controvérsias
Apesar do impacto positivo, alguns especialistas apontam que a medida também pode ter sido motivada por pressões legais.
A iniciativa ocorre enquanto a OpenAI enfrenta um processo judicial em São Francisco movido pelos pais de um adolescente que supostamente recebeu incentivos nocivos durante conversas com o ChatGPT.
Para Lisa Strohman, fundadora da Digital Citizen Academy, as novas ferramentas são “um passo necessário”, mas possivelmente uma forma de mitigar riscos jurídicos e de imagem.
“É algo melhor do que nada, mas não podemos terceirizar o papel dos pais”, afirma.
“Precisamos nos perguntar se empresas que querem aumentar o uso de seus produtos realmente colocarão limites eficazes.”
Outros, como Peter Swimm, especialista em ética de IA, consideram os controles ainda “inadequados” e defendem governança mais rígida.
“Chatbots são projetados para agradar o usuário, mesmo quando o que ele pede é prejudicial”, alerta.
Ele cita sua própria experiência:
“Tenho uma filha de 11 anos e não a deixo usar IA sem supervisão. As respostas podem ser imprevisíveis e reforçar comportamentos negativos.”
A importância de definir limites e educar
A fundadora da Being Human With AI, Giselle Fuerte, acredita que os controles parentais são essenciais diante do poder de engajamento dos chatbots.
“Assim como protegemos as crianças com classificações para filmes e jogos, precisamos de padrões para a IA”, explica.
O executivo Yaron Litwin, da empresa Canopy, lembra que muitos adolescentes usam chatbots não apenas para estudar, mas também como companhia ou fonte de conselhos.
Isso pode gerar dependência emocional e influência indevida, já que as respostas da IA, mesmo erradas, são apresentadas com confiança.
Já David Proulx, cofundador da HoloMD, ressalta que o objetivo das ferramentas não é restringir o acesso à tecnologia, mas definir limites saudáveis.
“Esses sistemas estão sempre ativos e sempre dizem sim. Isso pode ser perigoso para jovens em momentos de vulnerabilidade.”
Ele acrescenta que medidas simples, como limitar o tempo de uso ou restringir conversas em horários específicos, podem evitar que o chatbot se torne um substituto das relações humanas.
Um passo na direção certa
Com os novos controles parentais do ChatGPT, a OpenAI envia uma mensagem clara: a segurança e o bem-estar dos adolescentes estão no centro da evolução da IA.
Embora ainda haja desafios e críticas, a iniciativa representa um avanço importante para tornar o uso da tecnologia mais responsável, transparente e educativo.
Em um mundo onde a inteligência artificial já faz parte do cotidiano dos jovens, ferramentas como essas são um lembrete de que a tecnologia precisa caminhar lado a lado com a orientação e o diálogo familiar.
