Um novo relatório publicado pela Internet Matters traça um diagnóstico da situação e revela os desafios que temos pela frente. Embora o estudo tenha sido conduzido no Reino Unido, seus dados nos ajudam a entender que precisamos debater agora o uso de IA por crianças para criar um futuro que seja ética, emocional e cognitivamente seguro.
Um dos alertas do estudo é a confiança excessiva das crianças nas respostas dos chatbots com IA. Mais da metade (51%) acredita que os conselhos recebidos são verdadeiros. E o mais preocupante: 40% disseram não ver problema em seguir essas orientações, enquanto 36% nem sabem se deveriam se preocupar com isso.
Outro fator ainda mais preocupante é o envolvimento afetivo com a máquina. Uma em cada oito crianças (12%) que usam chatbots com IA utilizam o serviço porque não têm ninguém mais com quem conversar. O número sobe para quase um quarto (23%) entre crianças em situação de vulnerabilidade. Se antes as crianças buscavam refúgio de uma infância solitária em jogos e redes sociais, agora a IA aparece como uma alternativa mais encantadora.
Não podemos repetir com a IA o mesmo erro que cometemos com as redes sociais: deixar que crianças explorem, sozinhas, tecnologias que sequer foram desenhadas para elas. Assim como o relatório da Internet Matters, a UNICEF publicou um documento argumentando que, embora a promessa de benefícios seja grande, não devemos deixar que isso ofusque os riscos para toda uma geração.
Enquanto as regulações ainda engatinham, não podemos esperar. Precisamos debater e agir para mitigar os riscos presentes e futuros, que envolvem todos os atores da sociedade.
As plataformas devem ser cobradas para adotar um design centrado na segurança infantil; as escolas precisam integrar a alfabetização em IA nos currículos; e pais e responsáveis devem mostrar as limitações da tecnologia e, principalmente, a necessidade de buscar apoio real. Proteger a infância na era da IA é agir antes que a negligência vire padrão de um código de computador.