Quem decide quando a máquina decide?
Você abre o celular e o feed já está montado — alguém decidiu o que você veria. Você pesquisa um voo e o preço muda na próxima visita — alguém decidiu quanto você pagaria. Você manda um currículo e ele desaparece antes de qualquer humano ler — alguém decidiu que você não era relevante. Só que esse "alguém" não é uma pessoa. É um algoritmo — um conjunto de regras escritas por um programador, seguindo critérios definidos por uma empresa. A lógica está ali, mas a intenção por trás dela — por que esses critérios e não outros, a quem servem, o que otimizam — ficou na cabeça de quem projetou o sistema. Não há obrigação de torná-la visível. E é exatamente aí que mora o problema: as intenções embutidas em cada camada da cadeia tecnológica moldam silenciosamente o mundo que estamos construindo.
Não por acaso, esses modelos já foram chamados de "armas de destruição matemática" (O'Neil, 2016). São opacos, escaláveis e codificam preconceitos que já existiam na sociedade — mas agora operam em velocidade industrial. Você é avaliado, classificado e filtrado dezenas de vezes por dia — sem saber os critérios, sem poder contestar, e muitas vezes sem nem perceber que isso está acontecendo.
O problema não é a automação em si. É a ausência de transparência, responsabilidade e governança sobre ela.
Todo mundo concorda. Ninguém sabe como fazer.
Oitenta e quatro documentos de ética em inteligência artificial — de governos, empresas e instituições de pesquisa de dezenas de países — convergem em cinco princípios: transparência, justiça, não causar dano, responsabilidade e privacidade. Mas há divergência substancial sobre o que esses princípios significam na prática, quem deve implementá-los e como (Jobin, Ienca & Vayena, 2019).
Quase todo mundo concorda que a IA deveria ser justa e transparente. Quase ninguém concorda sobre o que fazer para garantir isso.
Enquanto essa lacuna persiste, há uma dimensão do problema que recebe ainda menos atenção: o custo energético. Cada modelo treinado, cada algoritmo rodando em um data center, cada busca processada consome eletricidade. Segundo estimativas de 2019, as emissões de gases de efeito estufa relacionadas a tecnologias de informação e comunicação cresciam cerca de 9% ao ano, e metade dessas emissões vinham da fabricação dos equipamentos (The Shift Project, 2019). A eficiência energética não é um detalhe técnico — é uma questão ética. Cada watt desperdiçado por um sistema mal otimizado é um recurso natural que não volta.
E aqui surge uma tensão produtiva: a mesma tecnologia que consome energia massiva também pode ser usada para reduzi-la. Algoritmos de aprendizado de máquina já otimizam redes elétricas, preveem padrões de consumo e controlam a refrigeração de grandes centros de processamento de dados. Um exemplo: o data center do Google em Hamina, na Finlândia, usa água do mar gelada para resfriar seus servidores e inteligência artificial para ajustar o sistema em tempo real. O resultado é que a esmagadora maioria da energia consumida vai direto para o processamento — uma fração mínima é gasta com refrigeração e infraestrutura auxiliar. O que muda o jogo não é a tecnologia em si, mas a decisão de empregá-la para otimizar em vez de desperdiçar.
Essa distinção — entre uso que cria e uso que extrai — aparece também na pesquisa sobre cognição. Uma meta-análise com mais de 411 mil adultos demonstrou que o uso ativo de tecnologia digital (aprender, resolver problemas, manter conexões) reduz em 58% o risco de declínio cognitivo, um efeito protetor comparável ao do exercício físico. O uso passivo e compulsivo, por outro lado, está associado a déficits mensuráveis em atenção e função executiva (Benge & Scullin, 2025; Throuvala et al., 2023). A mesma tela, o mesmo algoritmo — intenções diferentes, consequências opostas.
Quando a fronteira reproduz a desigualdade
Se a ética da automação parece um problema abstrato, a exploração espacial oferece um caso concreto em que todas essas tensões se materializam.
Considere o programa Apollo. Custou mais de US$ 25 bilhões nos anos 1960 — aproximadamente US$ 260 bilhões em valores atuais. A economista Mariana Mazzucato argumenta que o retorno desse investimento superou amplamente o custo, e usa o Apollo como modelo para o tipo de inovação que precisamos: audaciosa, orientada por missões claras, com colaboração real entre Estado e setor privado (Mazzucato, 2021).
Os benefícios concretos são documentados: o programa espacial americano como um todo já transferiu mais de 2.000 tecnologias para uso civil — de sensores de câmera de celular a sistemas de purificação de água, de espuma viscoelástica a equipamentos de proteção para bombeiros (NASA Spinoff). A exploração espacial não é luxo — é investimento com retorno mensurável.
Mas a pergunta que geralmente não se faz é: quem colhe esses retornos?
Se apenas países e empresas com capital massivo podem acessar recursos espaciais — mineração de asteroides, turismo orbital, satélites de comunicação —, o espaço reproduz no vácuo a mesma desigualdade que já existe na Terra. Joseph Pelton chama a corrida espacial privada de "nova corrida do ouro" — e aponta que, sem governança, seus benefícios se concentrarão ainda mais (Pelton, 2017). O Tratado do Espaço Exterior de 1967 estabeleceu que o espaço é patrimônio de toda a humanidade e não pode ser reivindicado como território por nenhuma nação — mas a exploração comercial de seus recursos opera em zona cinzenta jurídica, e esse princípio está sendo testado como nunca.
O dilema é familiar: investimento público gera inovação transformadora, mas se a governança falha, os benefícios se privatizam e os custos se socializam. Exatamente como nos algoritmos que decidem sobre vidas sem prestar contas.
A pergunta que atravessa tudo
Se há um fio que conecta a opacidade dos algoritmos, o consumo energético dos data centers e a corrida comercial pelo espaço, é este: eficiência sem ética é apenas uma forma mais sofisticada de desperdício.
Um algoritmo que otimiza lucro mas amplifica desigualdade não é eficiente — é destrutivo em escala. Um data center que processa bilhões de operações mas ignora sua pegada de carbono não é moderno — é insustentável. Uma indústria espacial que gera tecnologias transformadoras mas concentra seus benefícios não é inovadora — é extrativista.
E isso não é problema de especialista. É problema de qualquer pessoa que usa um celular, abre uma rede social ou paga um boleto — ou seja, de praticamente todo mundo. A exploração espacial, a regulamentação da IA e a eficiência energética parecem temas distantes, mas são, na verdade, questões sobre quem tem poder de decidir sobre a sua vida sem precisar pedir permissão.
A pergunta que vale a pena fazer — sobre automação, energia, espaço e tudo o mais — não é "essa tecnologia funciona?", mas "para quem funciona, com que transparência e sob qual governança?"
A pergunta que vale a pena fazer sobre qualquer tecnologia não é "funciona?", mas "quem decidiu que deveria funcionar assim — e para quem?"