Pesquisadores da Universidade de Stanford criaram uma tecnologia que transforma atividade cerebral em palavras audíveis. O dispositivo, descrito no artigo Dispositivo cerebral que lê pensamentos internos em voz alta inspira estratégias para proteger a privacidade mental, publicado na revista Science, decodifica sinais neurais associados à fala e os projeta em frases compreensíveis por meio de inteligência artificial.
O avanço é um milagre da ciência que abre caminho para devolver voz a pessoas que perderam a fala. No mundo em que vivemos, também inaugura uma fronteira sensível: a privacidade mental. O texto alerta que “a privacidade mental pode se tornar um dos debates mais importantes sobre direitos humanos nas próximas décadas” e observa que “uma vez que a tecnologia existe, é quase impossível controlar quem a usa e para qual finalidade”.
A pergunta inevitável é como proteger aquilo que antes parecia inviolável. A privacidade de dados já era um desafio mesmo antes, quando a preocupação se limitava a cliques, histórico de navegação e metadados. A possibilidade de inferir conteúdo mental eleva o debate a outro patamar. Em democracias robustas, o mínimo é combinar salvaguardas legais claras com barreiras técnicas, como criptografia forte, limitação de coleta e protocolos verificáveis de consentimento. Em regimes autoritários, a mesma capacidade pode virar instrumento de coerção. O risco não é teórico. Sempre que novas tecnologias mudam o eixo da informação, o primeiro impulso do poder é centralizar o controle.
Esse ponto importa diretamente para o Brasil. Na última semana, após o vídeo do influenciador Felca expor a exploração digital e a sexualização de crianças com a conivência de pais em redes sociais e canais fechados, o governo apresentou a proposta de transferir, para a Autoridade Nacional de Proteção de Dados, funções hoje exercidas pelo NIC.br e pelo Comitê Gestor da Internet no Brasil. O NIC.br é uma entidade civil, sem fins lucrativos, que administra o domínio .br, distribui endereço IP e produz estatísticas de uso da rede. O CGI.br é um colegiado multissetorial que define diretrizes para o desenvolvimento da internet no país, com assentos para governo, setor privado, academia e sociedade civil.
O problema exposto no vídeo é real e exige resposta imediata. O caminho correto envolve investigação policial, atuação do Ministério Público, cumprimento do Estatuto da Criança e do Adolescente, responsabilização de plataformas nos casos previstos em lei e educação digital de famílias e escolas. Em vez disso, o governo tenta acoplar ao clamor por proteção infantil uma mudança estrutural de governança que já defendia antes. A ideia é substituir o arranjo multissetorial por um desenho centralizado no Executivo. Na prática, isso altera freios e contrapesos e aproxima o país de um modelo de controle em que decisões críticas sobre infraestrutura, padrões e fluxos de dados passam a ser feitas só pelo governo da vez.
Essa inflexão tem efeitos concretos sobre tecnologias emergentes. Em inteligência artificial, aumenta o risco de regras nebulosas que incentivam remoção preventiva, desestimulam pesquisa aberta e criam incerteza jurídica para pequenas empresas. Em neurotecnologia, a centralização pode transformar requisitos técnicos em barreiras regulatórias, inclusive com demandas de acesso compulsório a dados altamente sensíveis. Quando o Estado concentra alavancas de governança digital, cresce a possibilidade de vigilância ampliada, inclusive por meio de integrações entre bancos de dados, sensores e sistemas de identificação.
A discussão volta ao ponto de partida. Se uma tecnologia de leitura de pensamentos começa a se tornar possível, quem deve decidir limites, salvaguardas e auditorias? O modelo multissetorial do CGI.br nasceu para equilibrar visões e impedir que um único ator capture a agenda da internet. Enfraquecê-lo em nome de uma bandeira urgente, como a proteção de crianças, é trocar soluções específicas por um cheque em branco regulatório. O resultado provável é menos transparência, mais poder discricionário e mais vulnerabilidade a usos políticos de ferramentas digitais.
Há um consenso mínimo que pode nos guiar: crimes contra crianças devem ser investigados e punidos com rigor. Plataformas precisam cumprir deveres objetivos já previstos na lei, inclusive com mecanismos de denúncia, preservação de provas e cooperação com autoridades. Famílias e escolas devem ser capacitadas em segurança digital. Nada disso exige desmontar a governança multissetorial da internet no Brasil.
Enquanto a ciência avança sobre a decodificação da fala a partir do cérebro, cabe ao país decidir que arcabouço institucional quer construir: um que proteja a última fronteira da privacidade ou um que a torne administrável por decreto. Em um mundo no qual pensamentos podem ser inferidos, a liberdade depende menos de promessas e mais de instituições que limitem o poder de quem quer que esteja no comando.