Article image
Lyvia Araujo
Lyvia Araujo25/06/2025 21:23
Compartilhe

TAXONOMIA DOS RISCOS DE VIOLÊNCIA EPISTÊMICA EM SISTEMAS DE IA

    INTRODUÇÃO

    A crescente adoção de sistemas de inteligência artificial (IA) em áreas sensíveis como saúde, justiça, educação e segurança tem intensificado o debate sobre os impactos éticos e sociais dessas tecnologias. Um dos aspectos mais relevantes, mas ainda pouco explorado, é a violência epistêmica que pode ser perpetrada ou amplificada por sistemas algorítmicos.

    A violência epistêmica, conforme definida por Fricker (2007), refere-se a formas de injustiça relacionadas ao conhecimento. Isso pode ocorrer por meio da deslegitimação sistemática de certos grupos como fontes epistêmicas confiáveis (injustiça testemunhal) ou pela ausência de categorias conceituais que permitam nomear e interpretar experiências específicas (injustiça hermenêutica). No contexto da IA, essas injustiças podem se manifestar na exclusão de determinados grupos dos dados de treinamento desta ferramenta, na perpetuação de vieses históricos ou na imposição de categorias classificatórias que não refletem a diversidade cultural, política e epistêmica dos usuários afetados.

    Diante disso, a criação de uma taxonomia dos riscos em IA relacionados à violência epistêmica torna-se importante para mapear e compreender os diferentes modos pelos quais sistemas algorítmicos podem reproduzir ou intensificar dinâmicas de opressão e silenciamento. Iniciativas como o AI Risk Repository (Slattery et al., 2024) e o projeto AI Risk (MIT, 2025) já oferecem estruturas abrangentes para a análise dos riscos em IA, mas ainda carecem de uma abordagem teórica centrada na epistemologia social crítica. Essa lacuna é particularmente relevante, já que a epistemologia das tecnologias disruptivas não se limita apenas a aspectos técnicos ou jurídicos, mas envolve também disputas simbólicas e políticas sobre quem tem o direito de saber, dizer e ser ouvido (Hopster, 2024; Veluwenkamp et al., 2024).

    O objetivo deste trabalho, portanto, é desenvolver uma taxonomia específica dos riscos epistêmicos em sistemas de IA, com foco nas formas de violência epistêmica que podem emergir de sua aplicação. Para isso, foi realizada uma revisão da literatura com base na ética algorítmica, epistemologia social e estudos sobre tecnologias socioculturais, identificando categorias analíticas que permitem classificar e compreender os riscos associados ao silenciamento ou distorção de vozes e saberes das minorias sociais.


    MÉTODO

    A construção da taxonomia seguiu uma abordagem exploratória e descritiva, a partir de uma breve revisão de literatura afim de se identificar os riscos específicos relacionados à violência epistêmica e da análise de classificações existentes. O processo metodológico foi dividido em três etapas: 1) leitura de estudos sobre riscos em IA e violência epistêmica; 2) identificação e extração de categorias de risco a partir das fontes consultadas; e 3) organização taxonômica das categorias com base na sua afinidade teórica e impacto social.

    Foram extraídas 6 categorias analíticas, a saber: invisibilização epistêmica; apropriação conceitual; silenciamento algorítmico; exclusão hermenêutica; assimetria de representação nos dados; e naturalização de vieses históricos. Estas categorias foram construídas com base em três critérios principais: a) recorrência na literatura consultada; (b) relevância empírica demonstrada por meio de casos reais ou hipotéticos de aplicação de IA; e (c) potencial para orientar intervenções ético-regulatórias no desenvolvimento e implementação de sistemas algorítmicos.

    As categorias foram organizadas em uma estrutura taxonômica hierárquica, possibilitando sua aplicação em contextos analíticos e normativos. Além disso, a taxonomia foi concebida de forma extensível, permitindo a inclusão de novas categorias conforme novos riscos epistêmicos possam ser identificados.


    TAXONOMIA DOS RISCOS DE VIOLÊNCIA EPISTÊMICA EM SISTEMAS DE IA

    image

    1. Invisibilização Epistêmica

    A invisibilização epistêmica ocorre quando certos grupos, saberes e experiências são sistematicamente excluídos ou apagados das representações dentro da inteligência artificial. Esse fenômeno pode ser resultado da ausência de dados representativos ou da estrutura algorítmica que privilegia determinadas formas de conhecimento em detrimento de outras. Essa invisibilização reforça desigualdades históricas, negando a visibilidade epistêmica de comunidades inteiras e limitando sua capacidade de expressão nos ecossistemas digitais. (Fricker, 2007; Hopster, 2024; Slattery et al., 2024).

    1.1 Ausência de dados representativos

    Os modelos de IA frequentemente negligenciam populações marginalizadas, como povos indígenas, comunidades rurais e grupos LGBTQIAPN+. Slattery et al. (2024) destacam que os conjuntos de dados tendem a refletir aquilo que é mais acessível para coleta, o que, na prática, significa priorizar informações de grupos socialmente privilegiados.

    1.2 Falta de reconhecimento semântico

    Modelos de linguagem e reconhecimento de fala treinados predominantemente em inglês apresentam dificuldades para compreender expressões culturais, gírias e dialetos. Isso cria barreiras comunicativas que deslegitimam linguagens periféricas ou não hegemônicas (Hopster, 2024).

    1.3 Apagamento de identidades

    Sistemas que utilizam classificações rígidas de raça, gênero ou nacionalidade acabam apagando formas híbridas, fluídas ou não binárias de identidade. Esse apagamento constitui uma injustiça epistêmica, pois impede que esses sujeitos sejam compreendidos em seus próprios termos, forçando-os a se encaixar em categorias que não os representam (Fricker, 2007).


    2. Apropriação Conceitual

    A apropriação conceitual ocorre quando categorias, termos ou estruturas de pensamento originários de grupos minoritários são capturados por sistemas de IA e utilizados fora de seus contextos originais, muitas vezes esvaziando seu significado político ou cultural. Veluwenkamp et al. (2024) exploram esse fenômeno no contexto da biotecnologia e do meio ambiente, mostrando como categorias nativas ou indígenas são assimiladas por molduras conceituais dominantes sem reconhecimento ou diálogo com seus produtores originais.

    2.1 Esvaziamento de conceitos culturais

    Expressões como “comunidade”, “ancestralidade” ou “cuidado coletivo” são cada vez mais incorporadas em narrativas de marketing algorítmico, sobretudo em projetos de IA voltados para impacto social, sem consideração por suas origens políticas. Veluwenkamp et al. (2024) demonstram como esses termos, ao serem removidos de seus contextos críticos, perdem sua força transformadora.

    2.2 Recontextualização técnica de categorias sociais

    A IA frequentemente transforma categorias subjetivas, como “justiça”, “igualdade” e “bem-estar”, em parâmetros mensuráveis e operacionais. Essa reinterpretação técnica pode diminuindo os significados sociais e históricos desses conceitos. Fricker (2007) aponta que essa apropriação dificulta o reconhecimento de saberes contra-hegemônicos, reduzindo sua complexidade a métricas simplificadas.

    2.3 Falta de retorno epistêmico

    Mesmo quando se baseiam em conhecimentos locais ou tradicionais, os sistemas de IA geralmente não garantem retorno intelectual, material ou simbólico às comunidades envolvidas. Isso configura uma forma contemporânea de colonialismo epistêmico, na qual saberes são extraídos sem reciprocidade ou reconhecimento adequado (Veluwenkamp et al., 2024).


    3. Silenciamento Algorítmico

    O silenciamento algorítmico ocorre quando discursos, narrativas ou formas de expressão são reprimidos, minimizados ou excluídos por sistemas algorítmicos. Esse fenômeno pode se manifestar de maneira direta, como na remoção de conteúdos por sistemas automatizados de moderação, ou de forma indireta, por meio da falta de visibilidade em mecanismos de busca e recomendação. Esse silenciamento pode afetar, por exemplo, vozes de ativistas, linguagens não normativas e discursos que desafiam estruturas hegemônicas, contribuindo para a deslegitimação de formas de saber e existências (Fricker, 2007; Mittelstadt et al., 2016).

    3.1 Despriorização de discursos não normativos

    Sistemas de recomendação, como os utilizados em redes sociais, tendem a favorecer conteúdos que maximizam engajamento, muitas vezes em detrimento de discursos críticos ou dissidentes. Isso resulta na invisibilização de pautas antirracistas, feministas e decoloniais (Mittelstadt et al., 2016).

    3.2 Moderação automatizada tendenciosa

    Plataformas que utilizam moderação automatizada baseada em aprendizado de máquina frequentemente classificam expressões de indignação política como ofensivas ou violentas, especialmente quando emitidas por grupos marginalizados. Fricker (2007) interpreta esse tipo de silenciamento como um obstáculo à agência epistêmica dos sujeitos, limitando sua capacidade de participação no debate público.

    3.3 Censura algorítmica

    Algoritmos frequentemente refletem valores corporativos e culturais predominantes no Norte Global, censurando de forma sistêmica vozes que destoam desses padrões. Essa censura não é explícita, mas opera por meio da opacidade técnica, dificultando sua contestação e reforçando desigualdades epistêmicas (Mittelstadt et al., 2016).


    4. Exclusão Hermenêutica

    A exclusão hermenêutica ocorre quando sistemas de IA não oferecem categorias interpretativas adequadas para expressar e compreender determinadas experiências sociais, especialmente aquelas vividas por grupos marginalizados e minorias sociais. Essa exclusão se manifesta, por exemplo, quando modelos de linguagem não são treinados para interpretar experiências de gênero e racialização fora das normas dominantes (Fricker, 2007; Hopster, 2024).

    4.1 Lacunas conceituais

    Muitos modelos de IA não contemplam categorias essenciais para minorias, como identidades de gênero não-binárias ou formas racializadas de sofrimento. Quando um sujeito não dispõe de uma linguagem compartilhada para expressar sua vivência, ele sofre uma injustiça hermenêutica, pois sua experiência permanece invisível no discurso dominante (Fricker, 2007).

    4.2 Subinterpretação de fenômenos complexos

    Ao reduzir realidades sociais a variáveis computáveis, sistemas de IA tendem a simplificar eventos complexos. Hopster (2024) alerta que essa simplificação compromete a compreensão profunda desses fenômenos e dificulta ações corretivas.

    4.3 Limitação da agência epistêmica

    Usuários que não dominam a lógica dos sistemas algorítmicos raramente têm meios de contestar decisões automatizadas que os afetam. Isso perpetua relações assimétricas de poder, nas quais o sujeito é objeto de decisão, mas não agente de construção do saber (Fricker, 2007).


    5. Assimetria de Representação nos Dados

    A assimetria de representação nos dados refere-se à distribuição desigual de grupos e experiências nos conjuntos de dados utilizados para treinar sistemas de IA, o que compromete sua capacidade de operar de forma justa e inclusiva. Essa assimetria compromete a acurácia dos sistemas bem como sua legitimidade epistemológica, já que reforça a ideia de que certos corpos, línguas, histórias e formas de vida são mais dignas de conhecimento do que outras (Mittelstadt et al., 2016; Slattery et al., 2024).

    5.1 Sobrerrepresentação de grupos dominantes

    Grande parte dos datasets amplamente utilizados na indústria de IA provém de contextos eurocêntricos, masculinos e heteronormativos. Isso gera um viés estrutural que faz com que os sistemas funcionem melhor para esses grupos, como mostram Mittelstadt et al. (2016).

    5.2 Sub-representação de saberes locais e tradicionais

    Fontes de conhecimento não ocidentais, como a medicina tradicional, oralidades ou cosmologias indígenas, costumam ser sub-representadas em sistemas IA, o que compromete a pluralidade epistêmica desses sistemas (Slattery et al., 2024).

    5.3 Dados enviesados

    Muitos modelos são treinados com dados históricos que contêm racismo, sexismo ou xenofobia implícitos. Esses padrões, ao serem aprendidos como "neutros", são reproduzidos e amplificados nas decisões algorítmicas (Mittelstadt et al., 2016).


    6. Naturalização de Vieses Históricos

    A naturalização de vieses históricos ocorre quando sistemas de IA, ao aprenderem com grandes volumes de dados do passado, internalizam e reproduzem discriminações históricas sem mecanismos de correção ou contextualização. A naturalização desses padrões como se fossem neutros ou tecnicamente justificáveis resulta em uma forma de violência epistêmica, transformando desigualdades históricas em predições automatizadas e autorreprodutivas (Hopster, 2024; Mittelstadt et al., 2016).

    6.1 Padrões históricos como verdades estatísticas

    Modelos preditivos utilizam padrões do passado como base para decisões atuais, sem considerar o viés estrutural que gerou esses dados. Isso gera uma retroalimentação de injustiças (Mittelstadt et al., 2016).

    6.2 Vieses não corrigíveis

    Poucos sistemas incluem estratégias efetivas para mitigar a reprodução de vieses, como auditorias independentes, explicabilidade e controle social.

    6.3 Autorreprodução de discriminações

    Decisões baseadas em dados enviesados podem gerar novos dados igualmente problemáticos, consolidando um ciclo vicioso de reprodução automática de preconceitos e discriminações (Mittelstadt et al., 2016).

     

    CONCLUSÃO

    Este trabalho propôs uma taxonomia dos riscos relacionados a violência epistêmica no uso da IA, evidenciando como sistemas algorítmicos podem reproduzir ou intensificar injustiças relacionadas ao conhecimento. A partir da intersecção entre epistemologia social, e ética algorítmica, foram identificadas formas de apagamento, silenciamento e apropriação que restringem a diversidade epistêmica e perpetuam desigualdades.

    A taxonomia apresentada tem a intenção de oferecer um recurso aplicável a avaliações de impacto ético e formulação de diretrizes para o desenvolvimento responsável de soluções em IA. Ao destacar os riscos que afetam o que os indivíduos podem expressar, saber e compartilhar, as categorias e subitens propostos reforçam a importância de abordagens críticas e politicamente engajadas na ética em IA.

    Pesquisas futuras podem buscar aprofundar essa análise com estudos de caso em áreas como: reconhecimento facial, justiça criminal preditiva e plataformas educacionais automatizadas. Particularmente, no que concerne ao aprimoramento desta taxonomia, recomenda-se o desenvolvimento de métricas avaliativas e protocolos de mitigação específicos para cada categoria de risco identificada. Por fim, acredita-se que o equilíbrio entre o conhecimento técnico e a sensibilidade epistemológica se faz essencial para garantir que soluções em IA não apenas reproduzam padrões existentes, mas contribuam para a construção de um ambiente digital mais inclusivo e equitativo.

     

    REFERÊNCIAS

    FRICKER, Miranda. Epistemic injustice: power and the ethics of knowing. Oxford: Oxford University Press, 2007.

    HOPSTER, Jeroen. Socially disruptive technologies and epistemic injustice. Ethics and Information Technology, v. 26, n. 1, p. 1-8, 2024. Disponível em: https://doi.org/10.1007/s10676-024-09747-9. Acesso em: 23 maio 2025.

    MASSACHUSETTS INSTITUTE OF TECHNOLOGY. AI Risk Repository. Massachusetts: MIT FutureTech, [2024]. Disponível em: https://airisk.mit.edu/. Acesso em: 23 maio 2025.

    MITTELSTADT, Brent D. et al. The ethics of algorithms: mapping the debate. Big Data & Society, v. 3, n. 2, p. 1-21, 2016. Disponível em: https://doi.org/10.1177/2053951716679679. Acesso em: 23 maio 2025.

    SLATTERY, Peter et al. The AI risk repository: a comprehensive meta-review, database, and taxonomy of risks from artificial intelligence. Research Gate, 2024. DOI: https://doi.org/10.13140/RG.2.2.28850.00968

    VELUWENKAMP, R. et al. Who owns ‘nature’? Conceptual appropriation in discourses on climate- and biotechnologies. Environmental Values, v. 33, n. 4, p. 414-433, 2024. Disponível em: https://doi.org/10.1177/09632719231196535. Acesso em: 23 maio 2025.

    Compartilhe
    Comentários (0)