Notícia

Favelas deixam de ser alvo e passam a protagonizar o debate sobre IA, aponta relatório inédito

Com 90% das prisões por reconhecimento facial atingindo pessoas negras, estudo analisa como moradores já usam inteligência artificial no cotidiano

Um relatório lançado pela Universidade Federal Fluminense (UFF) propõe inverter a lógica dominante sobre inteligência artificial (IA): em vez de discutir apenas como a tecnologia impacta territórios periféricos, o estudo investiga como as próprias favelas estão apropriando, disputando e redefinindo o uso da IA, e quais mudanças isso exige de governos e big techs. Baseado na escuta de lideranças comunitárias, midiativistas e pesquisadores ao longo de 2025, o projeto FavelIA aponta que a tecnologia não chega de forma neutra e tende a aprofundar desigualdades já existentes.

“Saímos de uma lógica em que a tecnologia atua sobre a favela e passa a entender como ela é usada no cotidiano. Isso tira a favela de um lugar passivo e a coloca como sujeito, com agência e capacidade de decisão”, afirma a pesquisadora de pós-doutorado pelo Programa de Pós-Graduação em Comunicação (PPGCOM-UFF) Marcela Barba, uma das autoras do estudo.

A doutoranda, do Programa de Pós-Graduação em Mídia e Cotidiano (PPGMC-UFF), Monique Paulla, também integrante da pesquisa, complementa dizendo que “o projeto não apenas insere as favelas na agenda sobre inteligência artificial, como também amplia a circulação desse debate e provoca reflexão crítica em espaços tradicionalmente excludentes.”

O deslocamento não é apenas conceitual. Ele se sustenta em um conjunto de dados que desmontam uma leitura ainda recorrente de exclusão digital. No município do Rio de Janeiro, cerca de 21,7% da população vive em favelas, segundo o Censo 2022 do Instituto Brasileiro de Geografia e Estatística (IBGE), territórios que apresentam alto nível de conectividade: aproximadamente 90% dos moradores acessam a internet regularmente, 99% por meio de smartphones, e 85% utilizam redes sociais diariamente.

“A tecnologia já chegou para todo mundo, mas de forma condicionada. Muitas pessoas acessam inteligência artificial dentro de plataformas que não consomem dados móveis. Isso define como e onde a IA é utilizada”, explica Barba. Já segundo Paulla, em muitos casos, as pessoas sequer sabem que já estão usando inteligência artificial, embora já percebam seus impactos na vida cotidiana. “Isso mostra como a tecnologia já está integrada às práticas sociais, mesmo sem reconhecimento formal”, acrescenta.

O relatório revela que esse padrão de acesso apresenta uma contradição central: a favela não está fora do ambiente digital, mas inserida nele de forma desigual e mediada por infraestruturas precárias, custos elevados e limitações de conectividade. Na prática, isso significa que muitos moradores acessam a internet por meio de pacotes de dados que liberam apenas aplicativos como WhatsApp e Facebook, concentrando ali grande parte do consumo de informação e do uso de ferramentas de inteligência artificial.

A mediação tecnológica condiciona não apenas o acesso, mas também as possibilidades de uso e experimentação da IA. “Muitos usuários têm acesso limitado a determinadas plataformas, o que restringe o tipo de informação que circula. Isso impacta diretamente o acesso ao conhecimento e o desenvolvimento do pensamento crítico”, observa Paulla.

Entre viés algorítmico e impacto material

Se o acesso existe, os impactos também são concretos e desigualmente distribuídos. Um dos dados mais contundentes reunidos pelo documento aponta que cerca de 90% das pessoas presas com base em reconhecimento facial no Brasil são negras. A informação sintetiza um dos principais eixos da pesquisa: a não neutralidade da inteligência artificial. “O reconhecimento facial integrado aos bancos de dados policiais tem se mostrado uma grande ameaça, especialmente para a população negra. Os erros desses sistemas geram impactos profundos e duradouros na vida das pessoas”, afirma Paulla.

De acordo com Barba, os sistemas são treinados com bases que não representam a diversidade da população. “Isso gera erros que têm consequências graves, como prisões indevidas, e os equívocos não são distribuídos de forma aleatória”.

“Além dos vieses nos sistemas, há uma dimensão estrutural pouco visível: a inteligência artificial depende de trabalho humano invisibilizado, muitas vezes mal remunerado, responsável por treinar e sustentar esses sistemas”, observa a professora Andrea Medrado, do Departamento de Comunicação da UFF e coordenadora da pesquisa. “Não se trata de uma tecnologia autônoma, mas de uma cadeia produtiva que também reproduz desigualdades”, acrescenta.

De acordo com o relatatório, sistemas de IA são treinados com dados existentes que reproduzem desigualdades históricas e hierarquias raciais. Foto: Relatório

Para além disso, a distorção não se limita à segurança pública. “Ela atravessa diferentes camadas de interação com a tecnologia, incluindo a produção de imagens e narrativas. Durante as atividades do projeto, apuramos que, ao realizar um teste com ferramentas de geração de imagem, uma deputada carioca solicitou a representação de uma “mulher preta, empoderada, na favela”. O resultado foi a inclusão de uma arma na mão da personagem”, conta a pesquisadora Marcela Barba.

Segundo ela, a inteligência artificial se alimenta do que já está na sociedade. “Se há uma base de dados atravessada por racismo, isso aparece nas respostas. A tecnologia não cria o viés, mas o reproduz e amplifica”, acrescenta.

O estudo registra percepções recorrentes sobre o impacto da automação em ocupações populares. Paulla explica que a reprodução de desigualdades também se manifesta no mercado de trabalho. “Em um dos relatos, uma participante aponta o risco de substituição do trabalho do marido, porteiro, por sistemas automatizados de controle de acesso. Mesmo sem domínio técnico, os participantes já identificavam riscos concretos, como a substituição de trabalhadores por sistemas automatizados. É um demonstrativo de que os impactos são percebidos antes mesmo de serem plenamente compreendidos”.

Na visão de Barba, as pessoas têm clareza de que a inteligência artificial afeta diretamente a renda e o trabalho. Não é uma discussão abstrata. “É algo que aparece na vida concreta”.

Medrado chama atenção para um duplo movimento: “ao mesmo tempo em que a tecnologia substitui postos de trabalho, ela também depende de formas precárias de trabalho para existir. Há uma substituição visível, como no caso dos porteiros, e uma exploração invisível, ligada ao treinamento dos sistemas”.

Ao mesmo tempo, a pesquisa identifica um paradoxo no uso das tecnologias. “Se você não usar, fica para trás. Mas se usar, pode ser deslegitimado. Há casos em que um texto bem escrito é automaticamente associado ao uso de IA, como se invalidasse o esforço ou o conhecimento da pessoa”, observa Barba. O tensionamento revela que a presença da inteligência artificial não apenas reorganiza práticas, mas também reconfigura critérios de legitimidade e reconhecimento social.

Extrativismo de dados e respostas locais

Além dos impactos diretos, o relatório situa a IA em uma dinâmica econômica global marcada por assimetrias profundas. Enquanto grandes empresas de tecnologia concentram receitas bilionárias, os territórios periféricos aparecem como espaços de extração de dados, consumo dependente e trabalho precarizado.

“Sabemos que as big techs operam a partir da extração massiva de dados para capturar atenção e modular comportamentos. A favela não está fora desse processo. Estamos falando de tecnologias desenvolvidas no Norte Global e aplicadas no Sul Global sem considerar suas especificidades. Isso invisibiliza saberes, culturas e necessidades locais”, destaca Paulla.

A pesquisadora Andrea Medrado também destaca impactos ambientais frequentemente ignorados. “A indústria de IA demanda grandes volumes de energia e água para funcionamento de data centers. Esses custos ambientais recaem de forma desproporcional sobre regiões já vulnerabilizadas, que são as mais afetadas por crises climáticas”, afirma.

Barba afirma que existe uma lógica em que os dados são coletados, o trabalho é explorado e os benefícios não retornam para esses territórios. “É uma relação desigual, em que a favela participa, mas não decide”.

O processo é descrito como “extrativismo de dados”, conceito que articula diferentes dimensões da economia digital. Ele envolve desde a coleta massiva de informações por plataformas até o trabalho de treinamento de sistemas de inteligência artificial, frequentemente realizado por trabalhadores com baixa remuneração. Em paralelo, esses mesmos sistemas podem substituir funções exercidas por esses trabalhadores, aprofundando a insegurança econômica.

O relatório também aponta que, em contextos eleitorais, a infraestrutura de dados pode ser utilizada para segmentação de mensagens e direcionamento de conteúdo, ampliando riscos associados à desinformação e à manipulação de opinião pública.

“A lógica da economia da atenção intensifica a circulação de conteúdos extremos e desinformação, porque essas dinâmicas geram mais engajamento”, afirma Medrado. “Em contextos de favela, isso pode ter efeitos ainda mais graves, como a circulação de informações falsas sobre operações policiais, com impactos diretos na segurança das pessoas.”

Ainda assim, a pesquisa evita reduzir a relação das favelas com a inteligência artificial a um cenário de vulnerabilidade. Ao contrário, identifica uma série de usos concretos que indicam apropriações criativas e estratégicas da tecnologia.

“Vimos pessoas usando IA para escrever textos, organizar ideias e elaborar documentos formais. Isso é importante porque amplia o acesso a linguagens institucionais que muitas vezes são barreiras”, explica Barba.

“Uma agente de saúde utilizava a IA integrada ao WhatsApp para adaptar sua comunicação com os moradores. Já os ativistas, usavam ferramentas para resumir projetos de lei e facilitar a compreensão inicial de conteúdos complexos”, relata Paulla.

Para os pesquisadores, a extração de dados, sem transparência ou consentimento, transforma a vida cotidiana das pessoas em matéria-prima para modelos algorítmicos. Foto: Relatório.

Os usos têm impacto direto em práticas como o midiativismo, onde a IA contribui para fortalecer a produção de narrativas próprias e ampliar a capacidade de circulação de informações. Ao mesmo tempo, surgem usos mais sensíveis, como o recurso à tecnologia para aconselhamento emocional, o que evidencia tanto lacunas de acesso a serviços quanto riscos associados à mediação algorítmica.

Iniciativas como o Wikifavelas reforçam essa dimensão de produção ativa de conhecimento. A plataforma reúne conteúdos produzidos por moradores e pesquisadores e articula tecnologia e memória social de forma colaborativa.

A noção de inteligência coletiva aparece no relatório como contraponto à lógica dominante das plataformas digitais, orientada por engajamento, individualização e lucro. Enquanto as plataformas operam a partir da abstração dos dados, a inteligência coletiva das favelas está ancorada em relações concretas, o que exige uma abordagem mais situada e sensível às especificidades desses territórios.

De acordo com Paulla, a inteligência coletiva nasce da vivência e dos vínculos. “É um conhecimento construído no cotidiano, que não pode ser reduzido a dados fragmentados como nas plataformas digitais”. No mesmo sentido, Barba acredita que “a favela já tem uma inteligência coletiva muito forte, baseada em vínculos, redes de apoio e experiências compartilhadas. A tecnologia pode potencializar isso, mas não substitui essas dinâmicas”.

Para Medrado, reconhecer essas dinâmicas exige ampliar o próprio conceito de tecnologia. “As favelas já desenvolvem tecnologias sociais sofisticadas, baseadas em cuidado, solidariedade e organização coletiva. O desafio é fazer com que essas formas de inteligência também sejam reconhecidas e apoiadas, inclusive com investimento público e privado.”

Ao final, o estudo aponta que enfrentar os riscos associados à inteligência artificial exige mais do que ajustes técnicos. Entre as recomendações estão a criação de mecanismos de regulação com foco em justiça social, a inclusão efetiva de moradores de favelas nos processos decisórios e a redistribuição dos benefícios econômicos gerados pela tecnologia.

Para Paulla é fundamental incluir coletivos de favelas nos processos de regulação, investir em alfabetização em inteligência artificial e rever o uso de tecnologias como reconhecimento facial na segurança pública. Na visão de Barba, a questão não é rejeitar a IA, mas garantir que ela seja usada de forma crítica, e que não reproduza as desigualdades que já existem.

_______________________________

Andrea Medrado é professora Associada e Co-Diretora de Pesquisas no Departamento de Comunicação, Drama e Filme da Universidade de Exeter no Reino Undo e professora do Programa de Pós-graduação em Mídia e Cotidiano (PPGMC) da Universidade Federal Fluminense. Realizou pesquisas de pós-doutorado pela Royal Holloway University of London, com bolsa da Arts and Humanities Research Council (AHRC), e Doutora em Estudos de Mídia pela University of Westminster em Londres, com bolsa da Overseas Research Scholarship. Eleita Vice-Presidente da International Association for Media and Communication Research (IAMCR – de 2020 a 2024). Integrante do Grupo de Pesquisas EMERGE (Centro de Pesquisas e Produção em Comunicação e Emergência). Também atuou como professora em diversas universidades no Reino Unido (Bournemouth University, Royal Holloway, London Metropolitan University, University of Westminster – 2006-2013). Além da carreira acadêmica, tem mais de dez anos de experiência na área de criação, atuando como redatora em diversas agências de publicidade, especialmente na área de criação para marketing político.

Marcela Barba é pesquisadora de pós-doutorado no Programa de Pós-graduação em Comunicação da UFF, com bolsa PDJ do CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico). Doutora em Comunicação pelo PPGCOM-UFF, na linha Mídia, Cultura e Produção de Sentido. Mestra pelo PPGCOM-UFPR, na linha de pesquisa Comunicação e Política (2022). Graduada em Comunicação Institucional pela Universidade Tecnológica Federal do Paraná (2014). Coordenadora da equipe de Triagem da Revista Contracampo. É integrante do Instituto Nacional de Ciência e Tecnologia em Disputas e Soberania Informacional (INCT-DSI), do Centro de Referência para o Ensino do Combate à Desinformação (CODES), do Laboratório de Mídia e Democracia (LAMIDE-UFF), do Grupo de Pesquisa TELAS: cinema, televisão, streaming, experiência estética (PPGCOM – UTP). É também coordenadora acadêmica da Rede Conecta e apresentadora do programa Diálogos Conecta. Integrou o Grupo de Pesquisa em Comunicação Política e Opinião Pública (CPOP-UFPR) entre 2020 e 2021. Suas atuais pesquisas contemplam os interseccionamentos entre mídia, política e religião.

Monique Paulla é Doutoranda em Mídia e Cotidiano pelo Programa de Pós-Graduação em Mídia e Cotidiano da Universidade Federal Fluminense, com bolsa concedida pela CAPES. Mestre em Mídia e Cotidiano pelo Programa de Pós-Graduação em Mídia e Cotidiano da Universidade Federal Fluminense. Pós-Graduada Lato Sensu MBA em Administração de Marketing e Comunicação Empresarial pela Universidade Veiga de Almeida. Bacharel em Comunicação Social, habilitação em Relações Públicas, pelas Faculdades Integradas Hélio Alonso. Atuou como Professora Substituta no Departamento de Comunicação Social, habilitação Publicidade e Propaganda, da Universidade Federal Fluminense – nos semestres de 2023.1 e 2023.2. E possui ampla experiência profissional no seguimento da indústria da música. Pesquisa as interfaces da Comunicação, Cultura, Mídia e Cotidiano vinculadas às questões que atravessam o campo da política a partir da atuação das mulheres negras, quilombolas e favelizadas. Também desenvolve investigações no campo das relações étnico-raciais e os reflexos no consumo midiático entre as juventudes.

Acessar o conteúdo