Arquivo da tag: governança da internet

O escândalo do vazamento de conversas privadas do Grok e do ChatGPT

O vazamento de dados envolvendo o chatbot Grok, da empresa xAI de Elon Musk, e a indexação de conversas do ChatGPT pelo Google trouxe à tona uma das discussões mais importantes sobre inteligência artificial: a segurança das informações que compartilhamos com sistemas desse tipo. A diferença entre os dois episódios é significativa, mas ambos revelam o grau de exposição a que estamos sujeitos ao usar essas ferramentas.

No caso do Grok, todas as conversas de usuários ficaram disponíveis em resultados de pesquisa do Google, o que significa que conteúdos trocados em um ambiente que deveria ser privado foram completamente expostos. O ChatGPT, por sua vez, não teve um vazamento de dados sigilosos, mas enfrentou críticas ao permitir que chats compartilhados voluntariamente pelos usuários fossem indexados pelos mecanismos de busca. Embora não seja uma falha de segurança no mesmo nível do Grok, o episódio reforça como a noção de privacidade nesse tipo de tecnologia é mais frágil do que imaginamos.

Para entender o impacto disso, é importante diferenciar o que significa indexação. Trata-se do processo pelo qual buscadores como o Google organizam e classificam páginas e conteúdos públicos para que apareçam em resultados de pesquisa. Quando uma conversa no ChatGPT é compartilhada por um link, esse conteúdo pode se tornar acessível publicamente e, portanto, indexado.

A OpenAI já lançou atualizações para permitir que os usuários impeçam a indexação desses links, mas centenas de conversas foram expostas. O episódio serve de alerta sobre o quanto a configuração padrão e a falta de clareza em políticas de uso podem colocar dados em exposição. Já no Grok, o problema não foi uma funcionalidade mal interpretada, mas uma falha grave de segurança: conversas privadas foram parar em páginas que o Google rastreou como qualquer outra, expondo dados pessoais e interações sem consentimento.

Esses dois incidentes escancaram a quantidade de informações que essas empresas armazenam sobre os usuários e como isso pode ser transformado em um ponto de vulnerabilidade. A promessa de que a inteligência artificial tornará a vida mais prática, com assistentes virtuais cada vez mais sofisticados, vem acompanhada do risco de que esses sistemas se tornem mecanismos de vigilância em massa, seja por descuido corporativo, seja por uso mal-intencionado de governos autoritários. O que hoje parece apenas uma falha técnica pode, em outros contextos, ser a chave para perseguições políticas, manipulação social e censura.

O paradoxo é evidente: nunca tivemos tanta tecnologia para melhorar a qualidade de vida e ampliar a liberdade individual, mas essa mesma tecnologia cria ferramentas poderosas para limitar direitos. A história mostra que regimes totalitários se apoiam em meios de controle, e as inteligências artificiais levam esse controle a um nível sem precedentes.

No Brasil, o governo tem investido em mudanças na governança da internet que podem concentrar ainda mais poder. A proposta de transferir para a Autoridade Nacional de Proteção de Dados funções que hoje são exercidas pelo NIC.br e pelo Comitê Gestor da Internet segue o modelo de centralização estatal usado pela China. Essas duas entidades mantêm um sistema de governança multissetorial reconhecido internacionalmente, no qual governo, empresas, academia e sociedade civil têm voz equilibrada na definição de diretrizes para a rede. Substituir esse modelo por uma estrutura controlada por Brasília enfraquece a proteção de dados e facilita o controle político sobre a tecnologia.

A recente tentativa de regulamentação das redes sociais com base no episódio envolvendo o influenciador Felca é um exemplo. A exposição feita por ele revelou um problema real e grave de exploração infantil nas redes, mas o governo usou o caso como justificativa para avançar em projetos de controle da internet que já vinham sendo rejeitados. Essa estratégia, de se aproveitar de comoções sociais para aprovar legislações autoritárias, não é nova, mas ganha uma dimensão perigosa quando aplicada ao universo digital, onde a velocidade de disseminação de dados e a concentração de poder em poucas empresas tornam a privacidade um bem cada vez mais raro.

O que está em jogo vai muito além de preferências tecnológicas ou conveniências. É a capacidade de manter uma sociedade livre diante de corporações que lucram com nossos dados e governos que enxergam na tecnologia um meio de vigiar e punir. A revolução digital trouxe benefícios incontestáveis, mas, sem um debate sério sobre governança, privacidade e limites éticos, podemos acabar trocando liberdade por uma ilusão de segurança. O futuro da inteligência artificial não será definido apenas pelo avanço da ciência, mas pela coragem de estabelecer barreiras contra abusos de poder.

A tecnologia capaz de ler seus pensamentos já existe em Stanford

Pesquisadores da Universidade de Stanford criaram uma tecnologia que transforma atividade cerebral em palavras audíveis. O dispositivo, descrito no artigo Dispositivo cerebral que lê pensamentos internos em voz alta inspira estratégias para proteger a privacidade mental, publicado na revista Science, decodifica sinais neurais associados à fala e os projeta em frases compreensíveis por meio de inteligência artificial.

O avanço é um milagre da ciência que abre caminho para devolver voz a pessoas que perderam a fala. No mundo em que vivemos, também inaugura uma fronteira sensível: a privacidade mental. O texto alerta que “a privacidade mental pode se tornar um dos debates mais importantes sobre direitos humanos nas próximas décadas” e observa que “uma vez que a tecnologia existe, é quase impossível controlar quem a usa e para qual finalidade”.

A pergunta inevitável é como proteger aquilo que antes parecia inviolável. A privacidade de dados já era um desafio mesmo antes, quando a preocupação se limitava a cliques, histórico de navegação e metadados. A possibilidade de inferir conteúdo mental eleva o debate a outro patamar. Em democracias robustas, o mínimo é combinar salvaguardas legais claras com barreiras técnicas, como criptografia forte, limitação de coleta e protocolos verificáveis de consentimento. Em regimes autoritários, a mesma capacidade pode virar instrumento de coerção. O risco não é teórico. Sempre que novas tecnologias mudam o eixo da informação, o primeiro impulso do poder é centralizar o controle.

Esse ponto importa diretamente para o Brasil. Na última semana, após o vídeo do influenciador Felca expor a exploração digital e a sexualização de crianças com a conivência de pais em redes sociais e canais fechados, o governo apresentou a proposta de transferir, para a Autoridade Nacional de Proteção de Dados, funções hoje exercidas pelo NIC.br e pelo Comitê Gestor da Internet no Brasil. O NIC.br é uma entidade civil, sem fins lucrativos, que administra o domínio .br, distribui endereço IP e produz estatísticas de uso da rede. O CGI.br é um colegiado multissetorial que define diretrizes para o desenvolvimento da internet no país, com assentos para governo, setor privado, academia e sociedade civil.

O problema exposto no vídeo é real e exige resposta imediata. O caminho correto envolve investigação policial, atuação do Ministério Público, cumprimento do Estatuto da Criança e do Adolescente, responsabilização de plataformas nos casos previstos em lei e educação digital de famílias e escolas. Em vez disso, o governo tenta acoplar ao clamor por proteção infantil uma mudança estrutural de governança que já defendia antes. A ideia é substituir o arranjo multissetorial por um desenho centralizado no Executivo. Na prática, isso altera freios e contrapesos e aproxima o país de um modelo de controle em que decisões críticas sobre infraestrutura, padrões e fluxos de dados passam a ser feitas só pelo governo da vez.

Essa inflexão tem efeitos concretos sobre tecnologias emergentes. Em inteligência artificial, aumenta o risco de regras nebulosas que incentivam remoção preventiva, desestimulam pesquisa aberta e criam incerteza jurídica para pequenas empresas. Em neurotecnologia, a centralização pode transformar requisitos técnicos em barreiras regulatórias, inclusive com demandas de acesso compulsório a dados altamente sensíveis. Quando o Estado concentra alavancas de governança digital, cresce a possibilidade de vigilância ampliada, inclusive por meio de integrações entre bancos de dados, sensores e sistemas de identificação.

A discussão volta ao ponto de partida. Se uma tecnologia de leitura de pensamentos começa a se tornar possível, quem deve decidir limites, salvaguardas e auditorias? O modelo multissetorial do CGI.br nasceu para equilibrar visões e impedir que um único ator capture a agenda da internet. Enfraquecê-lo em nome de uma bandeira urgente, como a proteção de crianças, é trocar soluções específicas por um cheque em branco regulatório. O resultado provável é menos transparência, mais poder discricionário e mais vulnerabilidade a usos políticos de ferramentas digitais.

Há um consenso mínimo que pode nos guiar: crimes contra crianças devem ser investigados e punidos com rigor. Plataformas precisam cumprir deveres objetivos já previstos na lei, inclusive com mecanismos de denúncia, preservação de provas e cooperação com autoridades. Famílias e escolas devem ser capacitadas em segurança digital. Nada disso exige desmontar a governança multissetorial da internet no Brasil.

Enquanto a ciência avança sobre a decodificação da fala a partir do cérebro, cabe ao país decidir que arcabouço institucional quer construir: um que proteja a última fronteira da privacidade ou um que a torne administrável por decreto. Em um mundo no qual pensamentos podem ser inferidos, a liberdade depende menos de promessas e mais de instituições que limitem o poder de quem quer que esteja no comando.