Arquivo da tag: privacidade de dados

TikTok vai entregar dados dos usuários para o governo?

A pergunta não saiu de um blog conspiratório, mas da Forbes. A revista revelou que o TikTok alterou discretamente sua política de atendimento a requisições governamentais nos Estados Unidos, ampliando a possibilidade de compartilhar dados de usuários não apenas com forças de segurança, mas também com “autoridades regulatórias, quando relevante”, e enfraquecendo a promessa de avisar o usuário quando seus dados forem entregues ao governo.

Questionada repetidas vezes se compartilha ou não informações com o Departamento de Segurança Interna e com a ICE, agência responsável pela imigração e alfândega, a empresa simplesmente se recusou a responder. Só depois da publicação da reportagem o TikTok enviou uma nota oficial à Forbes.

Disse o chefe de comunicação corporativa global, Nathaniel Brown: “Esta matéria enganosa distorce e sensacionaliza deliberadamente a forma como lidamos com solicitações legais, apenas para gerar cliques. O fato é que o TikTok avalia cuidadosamente esses pedidos com base em nossas diretrizes públicas para autoridades policiais e divulga informações de forma transparente e regular sobre como respondemos a eles”.

A frase é um primor do discurso padrão das Big Techs: acusa a reportagem de ser enganosa e sensacionalista, fala em diretrizes públicas, transparência e relatórios regulares. Mas não responde à pergunta central. A empresa não nega ter mudado a política, não explica por que ampliou a margem de compartilhamento com o governo e, principalmente, não diz se entrega ou não dados de usuários à ICE. Quando uma plataforma de alcance global responde assim, o problema já não é tecnológico. É político.

Essa não é a primeira vez que o TikTok se vê no centro de um incêndio geopolítico. Em 2022, ao analisar o avanço da tecnologia chinesa, mostrei como a China passou a usar sua infraestrutura digital como um Cavalo de Troia do século XXI. O Estado chinês prevê a presença de representantes do Partido Comunista dentro das empresas, inclusive privadas. Nunca houve democracia na China. Não se discute liberdade individual como valor central. O que importa é coletivismo, paz social e progresso econômico. Nesse modelo, dados não são apenas insumo de negócios. São ferramenta de poder.

Naquela coluna, lembrei que o Parlamento britânico decidiu desativar sua conta oficial no TikTok por temor de que o governo chinês pudesse acessar os dados. Não era paranoia. Era a consequência lógica de uma investigação sobre violações de direitos humanos contra a minoria uigur e o uso de tecnologia como instrumento de pressão política. Mais tarde, o governo Biden reforçou sanções a empresas como Huawei e ZTE, reconhecendo que a tecnologia chinesa é parte de uma disputa de poder global.

Em 2023, outro capítulo. O TikTok teve de admitir publicamente que funcionários da ByteDance espionaram jornalistas nos Estados Unidos, rastreando localização e acessos de profissionais que investigavam a empresa. O que antes era tratado como teoria conspiratória virou fato: a plataforma foi usada para vigiar quem fiscalizava seu comportamento. Ali ficou impossível sustentar a narrativa inocente de “rede de vídeos divertidos”.

Agora, a reportagem da Forbes não fala da China, mas dos Estados Unidos. Mostra que o aplicativo ajustou sua política para facilitar a cooperação com o governo americano, especialmente após negociações para continuar operando no país. A discussão deixa de ser apenas “China espionando o Ocidente” e passa a ser algo mais desconfortável: qualquer grande plataforma, em qualquer lugar do mundo, tende a ceder quando um governo poderoso bate à porta pedindo dados de usuários.

O escândalo do vazamento de conversas privadas do Grok e do ChatGPT

O vazamento de dados envolvendo o chatbot Grok, da empresa xAI de Elon Musk, e a indexação de conversas do ChatGPT pelo Google trouxe à tona uma das discussões mais importantes sobre inteligência artificial: a segurança das informações que compartilhamos com sistemas desse tipo. A diferença entre os dois episódios é significativa, mas ambos revelam o grau de exposição a que estamos sujeitos ao usar essas ferramentas.

No caso do Grok, todas as conversas de usuários ficaram disponíveis em resultados de pesquisa do Google, o que significa que conteúdos trocados em um ambiente que deveria ser privado foram completamente expostos. O ChatGPT, por sua vez, não teve um vazamento de dados sigilosos, mas enfrentou críticas ao permitir que chats compartilhados voluntariamente pelos usuários fossem indexados pelos mecanismos de busca. Embora não seja uma falha de segurança no mesmo nível do Grok, o episódio reforça como a noção de privacidade nesse tipo de tecnologia é mais frágil do que imaginamos.

Para entender o impacto disso, é importante diferenciar o que significa indexação. Trata-se do processo pelo qual buscadores como o Google organizam e classificam páginas e conteúdos públicos para que apareçam em resultados de pesquisa. Quando uma conversa no ChatGPT é compartilhada por um link, esse conteúdo pode se tornar acessível publicamente e, portanto, indexado.

A OpenAI já lançou atualizações para permitir que os usuários impeçam a indexação desses links, mas centenas de conversas foram expostas. O episódio serve de alerta sobre o quanto a configuração padrão e a falta de clareza em políticas de uso podem colocar dados em exposição. Já no Grok, o problema não foi uma funcionalidade mal interpretada, mas uma falha grave de segurança: conversas privadas foram parar em páginas que o Google rastreou como qualquer outra, expondo dados pessoais e interações sem consentimento.

Esses dois incidentes escancaram a quantidade de informações que essas empresas armazenam sobre os usuários e como isso pode ser transformado em um ponto de vulnerabilidade. A promessa de que a inteligência artificial tornará a vida mais prática, com assistentes virtuais cada vez mais sofisticados, vem acompanhada do risco de que esses sistemas se tornem mecanismos de vigilância em massa, seja por descuido corporativo, seja por uso mal-intencionado de governos autoritários. O que hoje parece apenas uma falha técnica pode, em outros contextos, ser a chave para perseguições políticas, manipulação social e censura.

O paradoxo é evidente: nunca tivemos tanta tecnologia para melhorar a qualidade de vida e ampliar a liberdade individual, mas essa mesma tecnologia cria ferramentas poderosas para limitar direitos. A história mostra que regimes totalitários se apoiam em meios de controle, e as inteligências artificiais levam esse controle a um nível sem precedentes.

No Brasil, o governo tem investido em mudanças na governança da internet que podem concentrar ainda mais poder. A proposta de transferir para a Autoridade Nacional de Proteção de Dados funções que hoje são exercidas pelo NIC.br e pelo Comitê Gestor da Internet segue o modelo de centralização estatal usado pela China. Essas duas entidades mantêm um sistema de governança multissetorial reconhecido internacionalmente, no qual governo, empresas, academia e sociedade civil têm voz equilibrada na definição de diretrizes para a rede. Substituir esse modelo por uma estrutura controlada por Brasília enfraquece a proteção de dados e facilita o controle político sobre a tecnologia.

A recente tentativa de regulamentação das redes sociais com base no episódio envolvendo o influenciador Felca é um exemplo. A exposição feita por ele revelou um problema real e grave de exploração infantil nas redes, mas o governo usou o caso como justificativa para avançar em projetos de controle da internet que já vinham sendo rejeitados. Essa estratégia, de se aproveitar de comoções sociais para aprovar legislações autoritárias, não é nova, mas ganha uma dimensão perigosa quando aplicada ao universo digital, onde a velocidade de disseminação de dados e a concentração de poder em poucas empresas tornam a privacidade um bem cada vez mais raro.

O que está em jogo vai muito além de preferências tecnológicas ou conveniências. É a capacidade de manter uma sociedade livre diante de corporações que lucram com nossos dados e governos que enxergam na tecnologia um meio de vigiar e punir. A revolução digital trouxe benefícios incontestáveis, mas, sem um debate sério sobre governança, privacidade e limites éticos, podemos acabar trocando liberdade por uma ilusão de segurança. O futuro da inteligência artificial não será definido apenas pelo avanço da ciência, mas pela coragem de estabelecer barreiras contra abusos de poder.