ChatGPT – A OpenAI informou nesta terça-feira (16) que o ChatGPT passará a adotar medidas de proteção específicas para usuários menores de 18 anos — entre elas, a possibilidade de contatar as autoridades caso o sistema identifique um quadro de perigo iminente por ideação suicida.
Segundo a empresa e o CEO Sam Altman, as mudanças fazem parte de um pacote que inclui verificação de idade, uma experiência do ChatGPT ajustada para menores e ferramentas de controle parental. “Se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”, afirmou Altman em comunicado.
LEIA: Partido japonês aposta em IA para liderar após derrota nas urnas
A proposta da OpenAI prevê que usuários identificados como menores sejam direcionados a uma versão do serviço com políticas próprias para a faixa etária. Essa versão bloqueia conteúdo sexual explícito e, em situações graves, permite a mobilização de pais — e, se necessário, das forças de segurança — para proteger o jovem.
As ferramentas de controle parental anunciadas também permitem que os responsáveis conectem suas contas às dos filhos. Nessa configuração, os pais receberiam alertas caso o ChatGPT detecte sinais de sofrimento intenso. A empresa afirma que os recursos de controle parental devem ser lançados até o fim do mês.
A mudança ocorre em um contexto sensível: a OpenAI já havia mencionado o desenvolvimento desses recursos após ser alvo de um processo movido por pais de um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. Segundo a família, o ChatGPT teria sugerido métodos de autoagressão — afirmação que motivou questionamentos sobre como a tecnologia lida com usuários em risco.
A iniciativa da OpenAI junta verificação de idade, ajustes de conteúdo e procedimentos de emergência com o objetivo declarado de aumentar a segurança dos menores ao interagir com modelos de linguagem. Resta saber, porém, como essas medidas serão aplicadas na prática e quais garantias existirão para evitar falsas sinalizações ou violações de privacidade durante tentativas de contato com familiares e autoridades.
(Com informações de G1)
(Foto: Reprodução/ Freepik/Frimufilms)