Arquivo da tag: vigilância digital

TikTok vai entregar dados dos usuários para o governo?

A pergunta não saiu de um blog conspiratório, mas da Forbes. A revista revelou que o TikTok alterou discretamente sua política de atendimento a requisições governamentais nos Estados Unidos, ampliando a possibilidade de compartilhar dados de usuários não apenas com forças de segurança, mas também com “autoridades regulatórias, quando relevante”, e enfraquecendo a promessa de avisar o usuário quando seus dados forem entregues ao governo.

Questionada repetidas vezes se compartilha ou não informações com o Departamento de Segurança Interna e com a ICE, agência responsável pela imigração e alfândega, a empresa simplesmente se recusou a responder. Só depois da publicação da reportagem o TikTok enviou uma nota oficial à Forbes.

Disse o chefe de comunicação corporativa global, Nathaniel Brown: “Esta matéria enganosa distorce e sensacionaliza deliberadamente a forma como lidamos com solicitações legais, apenas para gerar cliques. O fato é que o TikTok avalia cuidadosamente esses pedidos com base em nossas diretrizes públicas para autoridades policiais e divulga informações de forma transparente e regular sobre como respondemos a eles”.

A frase é um primor do discurso padrão das Big Techs: acusa a reportagem de ser enganosa e sensacionalista, fala em diretrizes públicas, transparência e relatórios regulares. Mas não responde à pergunta central. A empresa não nega ter mudado a política, não explica por que ampliou a margem de compartilhamento com o governo e, principalmente, não diz se entrega ou não dados de usuários à ICE. Quando uma plataforma de alcance global responde assim, o problema já não é tecnológico. É político.

Essa não é a primeira vez que o TikTok se vê no centro de um incêndio geopolítico. Em 2022, ao analisar o avanço da tecnologia chinesa, mostrei como a China passou a usar sua infraestrutura digital como um Cavalo de Troia do século XXI. O Estado chinês prevê a presença de representantes do Partido Comunista dentro das empresas, inclusive privadas. Nunca houve democracia na China. Não se discute liberdade individual como valor central. O que importa é coletivismo, paz social e progresso econômico. Nesse modelo, dados não são apenas insumo de negócios. São ferramenta de poder.

Naquela coluna, lembrei que o Parlamento britânico decidiu desativar sua conta oficial no TikTok por temor de que o governo chinês pudesse acessar os dados. Não era paranoia. Era a consequência lógica de uma investigação sobre violações de direitos humanos contra a minoria uigur e o uso de tecnologia como instrumento de pressão política. Mais tarde, o governo Biden reforçou sanções a empresas como Huawei e ZTE, reconhecendo que a tecnologia chinesa é parte de uma disputa de poder global.

Em 2023, outro capítulo. O TikTok teve de admitir publicamente que funcionários da ByteDance espionaram jornalistas nos Estados Unidos, rastreando localização e acessos de profissionais que investigavam a empresa. O que antes era tratado como teoria conspiratória virou fato: a plataforma foi usada para vigiar quem fiscalizava seu comportamento. Ali ficou impossível sustentar a narrativa inocente de “rede de vídeos divertidos”.

Agora, a reportagem da Forbes não fala da China, mas dos Estados Unidos. Mostra que o aplicativo ajustou sua política para facilitar a cooperação com o governo americano, especialmente após negociações para continuar operando no país. A discussão deixa de ser apenas “China espionando o Ocidente” e passa a ser algo mais desconfortável: qualquer grande plataforma, em qualquer lugar do mundo, tende a ceder quando um governo poderoso bate à porta pedindo dados de usuários.

A tecnologia capaz de ler seus pensamentos já existe em Stanford

Pesquisadores da Universidade de Stanford criaram uma tecnologia que transforma atividade cerebral em palavras audíveis. O dispositivo, descrito no artigo Dispositivo cerebral que lê pensamentos internos em voz alta inspira estratégias para proteger a privacidade mental, publicado na revista Science, decodifica sinais neurais associados à fala e os projeta em frases compreensíveis por meio de inteligência artificial.

O avanço é um milagre da ciência que abre caminho para devolver voz a pessoas que perderam a fala. No mundo em que vivemos, também inaugura uma fronteira sensível: a privacidade mental. O texto alerta que “a privacidade mental pode se tornar um dos debates mais importantes sobre direitos humanos nas próximas décadas” e observa que “uma vez que a tecnologia existe, é quase impossível controlar quem a usa e para qual finalidade”.

A pergunta inevitável é como proteger aquilo que antes parecia inviolável. A privacidade de dados já era um desafio mesmo antes, quando a preocupação se limitava a cliques, histórico de navegação e metadados. A possibilidade de inferir conteúdo mental eleva o debate a outro patamar. Em democracias robustas, o mínimo é combinar salvaguardas legais claras com barreiras técnicas, como criptografia forte, limitação de coleta e protocolos verificáveis de consentimento. Em regimes autoritários, a mesma capacidade pode virar instrumento de coerção. O risco não é teórico. Sempre que novas tecnologias mudam o eixo da informação, o primeiro impulso do poder é centralizar o controle.

Esse ponto importa diretamente para o Brasil. Na última semana, após o vídeo do influenciador Felca expor a exploração digital e a sexualização de crianças com a conivência de pais em redes sociais e canais fechados, o governo apresentou a proposta de transferir, para a Autoridade Nacional de Proteção de Dados, funções hoje exercidas pelo NIC.br e pelo Comitê Gestor da Internet no Brasil. O NIC.br é uma entidade civil, sem fins lucrativos, que administra o domínio .br, distribui endereço IP e produz estatísticas de uso da rede. O CGI.br é um colegiado multissetorial que define diretrizes para o desenvolvimento da internet no país, com assentos para governo, setor privado, academia e sociedade civil.

O problema exposto no vídeo é real e exige resposta imediata. O caminho correto envolve investigação policial, atuação do Ministério Público, cumprimento do Estatuto da Criança e do Adolescente, responsabilização de plataformas nos casos previstos em lei e educação digital de famílias e escolas. Em vez disso, o governo tenta acoplar ao clamor por proteção infantil uma mudança estrutural de governança que já defendia antes. A ideia é substituir o arranjo multissetorial por um desenho centralizado no Executivo. Na prática, isso altera freios e contrapesos e aproxima o país de um modelo de controle em que decisões críticas sobre infraestrutura, padrões e fluxos de dados passam a ser feitas só pelo governo da vez.

Essa inflexão tem efeitos concretos sobre tecnologias emergentes. Em inteligência artificial, aumenta o risco de regras nebulosas que incentivam remoção preventiva, desestimulam pesquisa aberta e criam incerteza jurídica para pequenas empresas. Em neurotecnologia, a centralização pode transformar requisitos técnicos em barreiras regulatórias, inclusive com demandas de acesso compulsório a dados altamente sensíveis. Quando o Estado concentra alavancas de governança digital, cresce a possibilidade de vigilância ampliada, inclusive por meio de integrações entre bancos de dados, sensores e sistemas de identificação.

A discussão volta ao ponto de partida. Se uma tecnologia de leitura de pensamentos começa a se tornar possível, quem deve decidir limites, salvaguardas e auditorias? O modelo multissetorial do CGI.br nasceu para equilibrar visões e impedir que um único ator capture a agenda da internet. Enfraquecê-lo em nome de uma bandeira urgente, como a proteção de crianças, é trocar soluções específicas por um cheque em branco regulatório. O resultado provável é menos transparência, mais poder discricionário e mais vulnerabilidade a usos políticos de ferramentas digitais.

Há um consenso mínimo que pode nos guiar: crimes contra crianças devem ser investigados e punidos com rigor. Plataformas precisam cumprir deveres objetivos já previstos na lei, inclusive com mecanismos de denúncia, preservação de provas e cooperação com autoridades. Famílias e escolas devem ser capacitadas em segurança digital. Nada disso exige desmontar a governança multissetorial da internet no Brasil.

Enquanto a ciência avança sobre a decodificação da fala a partir do cérebro, cabe ao país decidir que arcabouço institucional quer construir: um que proteja a última fronteira da privacidade ou um que a torne administrável por decreto. Em um mundo no qual pensamentos podem ser inferidos, a liberdade depende menos de promessas e mais de instituições que limitem o poder de quem quer que esteja no comando.