top of page
  • Instagram

IA especulativa e a reprodução da Necropolítica digital no Brasil

Gabriel Mello












Há algo de profundamente inquietante no modo como certas tecnologias chegam ao Brasil. Elas raramente são apresentadas como escolhas políticas; surgem como inevitabilidades técnicas. O vocabulário é sempre o mesmo: eficiência, modernização, segurança. No entanto, basta observar com um pouco mais de atenção para perceber que, sob essa superfície tecnocrática, esconde-se um velho padrão histórico. O país que foi laboratório colonial durante séculos tornou-se, no século XXI, também um laboratório algorítmico.



Nos últimos anos, diversas metrópoles brasileiras passaram a implementar sistemas de reconhecimento facial em estações de transporte, estádios, aeroportos e centros urbanos. Paralelamente, forças de segurança têm adotado softwares de análise preditiva capazes de “mapear” áreas e indivíduos considerados de risco. Na linguagem institucional, trata-se de antecipar o crime; na prática social, o que se antecipa é sempre o mesmo alvo. A tecnologia que promete neutralidade estatística acaba reproduzindo — e frequentemente amplificando — as mesmas hierarquias raciais e territoriais que estruturam a violência histórica do país. O algoritmo aprende com os dados que lhe são oferecidos, e os dados do Brasil são um arquivo vasto de desigualdade.


Nesse sentido, não se trata apenas de uma nova ferramenta de policiamento, mas de uma atualização tecnológica de uma longa tradição de classificação social. Desde o período colonial, dispositivos institucionais produziram categorias destinadas a ordenar a população segundo critérios raciais e econômicos. No passado, essa ordenação se manifestava em registros de propriedade, documentos de alforria, códigos penais ou censos imperiais. Hoje, ela reaparece sob a forma de bancos de dados massivos, sistemas de reconhecimento biométrico e modelos estatísticos de risco. A mudança é menos uma ruptura do que uma mutação na linguagem do poder.


Não é difícil reconhecer nessa paisagem os sintomas de uma velha imaginação distópica. Em 1956, Philip K. Dick publicou um conto que se tornaria, ao meu ver, uma das parábolas mais inquietantes da ficção científica sobre poder e tecnologia. Décadas depois, ele ganharia projeção mundial com o filme Minority Report: A Nova Lei (2002), dirigido por Steven Spielberg. Na história, o Estado abandona a investigação tradicional e passa a prender cidadãos antes que os crimes aconteçam, com base em previsões consideradas infalíveis. O horror central da narrativa não reside apenas na vigilância absoluta, mas na transformação do futuro em prova jurídica. Quando o amanhã se torna evidência, o presente deixa de ser um espaço de liberdade.


Minority Report é um filme americano de ação e ficção científica de 2002, dirigido por Steven Spielberg e escrito por Scott Frank e Jon Cohen , que basearam o roteiro livremente na novela de Philip K. Dick de 1956, " The Minority Report "
Minority Report é um filme estadunidense de ação e ficção científica de 2002, dirigido por Steven Spielberg e com roteiro de Scott Frank e Jon Cohen , que se basearam no livro de Philip K. Dick de mesmo nome

Hoje, quando governos anunciam sistemas capazes de identificar “padrões comportamentais suspeitos”, a ficção de Dick parece menos exagerada do que profética. O problema não é apenas tecnológico; é epistemológico. Prever um crime significa assumir que o comportamento humano pode ser reduzido a probabilidades estáveis. Mais do que isso: significa aceitar que o Estado tenha legitimidade para punir com base nessas probabilidades. O resultado é um deslocamento perigoso da justiça para a estatística.


Outra obra frequentemente evocada nesse debate é 1984, de George Orwell. Durante décadas, o romance serviu como metáfora máxima do autoritarismo tecnológico: um mundo de teletelas, vigilância constante e linguagem controlada. No imaginário popular, o “Grande Irmão” era um rosto gigantesco observando cada gesto da população. Mas a vigilância do século XXI tornou-se mais sutil e, paradoxalmente, mais penetrante. O novo Grande Irmão não precisa mais olhar diretamente para você. Ele opera por meio de bases de dados, modelos estatísticos e infraestruturas invisíveis de cálculo.


Se em 1984 o controle era explícito, hoje ele se dissolve em processos automatizados. O cidadão não é apenas observado; ele é classificado. Cada rosto capturado por uma câmera é transformado em vetor matemático, comparado com bancos de dados, associado a perfis de risco. A vida social passa a existir como uma sequência de probabilidades calculadas em servidores distantes. O poder já não se manifesta apenas na vigilância, mas na capacidade de traduzir corpos em informação.


Essa transformação aponta para uma mutação importante nas tecnologias de governo. Durante grande parte da modernidade, o poder estatal operava sobretudo através da vigilância direta, da disciplina e da punição visível. No presente, cada vez mais decisões são mediadas por sistemas automatizados que classificam indivíduos antes mesmo que qualquer interação humana ocorra. A administração da sociedade passa a depender de infraestruturas de cálculo que reorganizam a realidade social em conjuntos de dados manipuláveis.


Essa lógica aparece de forma particularmente perturbadora em certas narrativas contemporâneas da ficção científica japonesa, como em Psycho-Pass (2012). No anime, um sistema computacional mede continuamente o “coeficiente criminal” dos cidadãos, determinando quem representa uma ameaça potencial à ordem social. Aqueles cujo índice ultrapassa determinado limite são neutralizados antes mesmo de cometer qualquer delito. O Estado abdica de sua dimensão ética e transfere a decisão sobre a vida e a morte para uma máquina.


É tentador considerar esse tipo de cenário como mera extrapolação ficcional. Contudo, quando algoritmos reais começam a determinar quais bairros receberão policiamento intensivo ou quais indivíduos devem ser monitorados com maior atenção, o princípio estrutural torna-se inquietantemente semelhante. O que está em jogo não é apenas vigilância; é uma forma de gestão diferencial da vida.


Para compreender plenamente esse fenômeno, talvez seja necessário recorrer a um conceito que ultrapassa o campo da ficção científica: a necropolítica. Em termos simples, trata-se da capacidade do Estado de decidir quais vidas devem ser protegidas e quais podem ser abandonadas à violência.

No contexto brasileiro, essa decisão sempre teve contornos raciais e territoriais bastante claros. Favelas e periferias foram historicamente tratadas como zonas de exceção, onde a presença policial assume frequentemente a forma de guerra interna.


Esse padrão não é episódico. Ele compõe uma estrutura histórica na qual determinadas populações são continuamente posicionadas em zonas de vulnerabilidade extrema. Ao longo de séculos, políticas de segurança, práticas judiciais e narrativas midiáticas contribuíram para consolidar a imagem de certos territórios e corpos como perigos inerentes à ordem social. O resultado é uma espécie de cartografia da suspeita permanente, na qual a distribuição da violência estatal acompanha as linhas profundas da desigualdade racial brasileira.


Quando sistemas algorítmicos entram nesse cenário, eles não suspendem essa lógica; eles a automatizam.


Em vez de decisões tomadas exclusivamente por agentes humanos, a classificação social passa a ser mediada por modelos estatísticos que processam grandes volumes de dados históricos. O risco, nesse contexto, não é apenas a reprodução de preconceitos individuais, mas a cristalização matemática de estruturas de desigualdade que já operam no mundo social. O cálculo algorítmico não cria o racismo estrutural; ele o reorganiza em escalas inéditas de eficiência administrativa.


Pesquisadores da área de tecnologia e sociedade têm chamado atenção para o fato de que a violência algorítmica não começa no momento da aplicação de um software, mas muito antes, nas próprias estruturas sociotécnicas que organizam o mundo digital. Em um ecossistema global moldado por hierarquias raciais históricas, os sistemas de inteligência artificial frequentemente acabam reforçando a distribuição desigual de conhecimento, recursos, espaço urbano e violência. O racismo, nesse sentido, não se limita a insultos explícitos nas redes sociais; ele se infiltra nas próprias arquiteturas invisíveis que organizam dados e classificações.


Isso ocorre porque os modelos computacionais que hoje estruturam a vida social dependem de processos massivos de extração de dados. Esses dados, no entanto, não são neutros: carregam consigo as marcas do mundo que os produziu. Quando algoritmos são treinados com arquivos históricos de policiamento, saúde, crédito ou consumo, eles absorvem também as distorções sociais presentes nesses registros. O resultado é uma tecnologia que parece objetiva, mas que reproduz silenciosamente decisões discriminatórias tomadas ao longo de décadas.


A própria ideia de neutralidade tecnológica funciona, nesse contexto, como uma espécie de blindagem ideológica. Ao transformar processos decisórios em “caixas opacas” de cálculo automatizado, os sistemas algorítmicos tornam mais difícil identificar os mecanismos de discriminação que operam em seu interior. A máquina apenas “segue os dados”. E, no entanto, são justamente esses dados que condensam as desigualdades estruturais de uma sociedade.


Enquanto isso, as grandes empresas de tecnologia continuam operando em uma zona ambígua de responsabilidade. O argumento tradicional sustenta que as plataformas seriam apenas intermediárias técnicas, não responsáveis pelo conteúdo publicado por seus usuários. No entanto, quando sistemas automatizados passam a modular, amplificar ou ocultar determinadas narrativas, essa neutralidade se torna difícil de sustentar. A curadoria algorítmica é, afinal, uma forma de decisão editorial — ainda que disfarçada de cálculo matemático.


Não por acaso, diversos estudos têm mostrado como sistemas de classificação algorítmica podem reproduzir desigualdades raciais mesmo quando variáveis explícitas de raça não estão presentes nos modelos. A distribuição histórica de renda, acesso a serviços ou exposição à violência já carrega consigo as marcas profundas da discriminação estrutural. Quando esses dados são convertidos em indicadores estatísticos de risco, crédito ou comportamento, o algoritmo acaba reforçando a própria hierarquia que deveria superar.


Em outras palavras, a máquina aprende a partir de um passado desigual — e o projeta para o futuro.

Diante desse cenário, a ficção científica cumpre uma função que vai muito além do entretenimento. Desde Mary Shelley e seu Frankenstein, o gênero tem sido um espaço privilegiado para refletir sobre os limites éticos da tecnologia. Cada distopia é, em última instância, uma pergunta sobre o presente: que tipo de mundo estamos construindo?


Talvez por isso a imaginação continue sendo uma ferramenta política fundamental. A ficção científica não serve apenas para prever o futuro; ela serve para denunciar as trajetórias que nos conduzem a ele. Cada narrativa distópica é também um exercício de interrupção histórica: um movimento para reconhecer, ainda no presente, os sinais de um caminho perigoso.


Porque, se os algoritmos aprendem com o passado, as histórias que contamos ainda podem alterar o nosso futuro.



Referências

ARAÚJO, Júlio. Genocídio, necropolítica e inteligência artificial: Abdias Nascimento, Achille Mbembe e o racismo algorítmico. Pontos de Interrogação, v. 15, n. 1, p. 97-116, jan.-jun. 2025,.

CEE-FIOCRUZ. Da necropolítica social à necropolítica digital: as mil faces do racismo algorítmico. 15 mar. 2022. Disponível em: portal Fiocruz.

MBEMBE, Achille. Necropolítica: biopoder, soberania, estado de exceção, política da morte. São Paulo: n-1 edições, 2018,.

NASCIMENTO, Abdias. O genocídio do negro no Brasil: processo de um racismo mascarado. 3. ed. São Paulo: Perspectivas, 2016,.

SILVA, Tarcizio. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições SESC, 2022

Comentários


bottom of page