Article image
Sara Santos
Sara Santos19/04/2026 22:49
Share

Inteligência Artificial, Governança e Protagonismo: Um Ajuste de Lente Necessário

    Em ambientes onde o erro é financeiro, regulatório e reputacional, reduzir a inteligência artificial a ganho de produtividade não é simplificação. É erro de análise.

    Por isso, passa a ser uma questão de governança.

    A IA, ao mesmo tempo em que amplia a capacidade operacional, desloca o ponto de risco: decisões passam a depender menos da execução manual e mais da qualidade do julgamento humano sobre o que automatizar, como interpretar e quando intervir.

    Nesse contexto, o senso crítico deixa de ser complementar e passa a ser um ativo central.

    A aceleração da IA, portanto, não é apenas um desafio de infraestrutura tecnológica, mas de infraestrutura decisória.

    Quanto mais ferramentas disponíveis, maior a exigência por profissionais capazes de operar sob ambiguidade, lidar com informações incompletas e sustentar decisões em cenários dinâmicos.

    É nesse ponto que o mercado começa a revisar o valor atribuído às chamadas “soft skills”, que passam a assumir um papel mais estrutural — o que muitos já vêm tratando como power skills.

    A IA mudou onde o risco mora

    Paralelamente, existe um movimento relevante no mercado de trabalho que ainda é pouco integrado a essa discussão.

    Dados da FGV IBRE indicam que 35,4% das mulheres ocupadas no Brasil estão em funções com algum grau de exposição à IA generativa, frente a 25,2% dos homens. A Organização Internacional do Trabalho aponta tendência semelhante ao analisar risco de automação por gênero.

    Ao mesmo tempo, pesquisas da Softex, com base em dados da iCIMS, mostram que mulheres reportam menor sensação de preparo para lidar com essas mudanças.

    Essa combinação sugere que a transição tecnológica não está ocorrendo em um terreno neutro.

    Ela interage com padrões já existentes de comportamento, percepção de risco e acesso a oportunidades.

    A transição tecnológica não é neutra

    Foi nesse cenário que, a partir da minha experiência colaborando com a DIO no programa Campus Expert, incentivando o uso prático da IA dentro da rotina acadêmica e profissional, observei esses dados não apenas como estatística, mas como comportamento recorrente.

    Ao trazer a ferramenta para o cotidiano e observar as trocas, ficou evidente que a barreira inicial raramente é técnica.

    Ela aparece na forma como o “não saber” é interpretado.

    Em ambientes onde o erro tem implicação direta em conformidade e resultado, é natural que o uso de novas ferramentas seja mais cauteloso. Mas, na prática, essa cautela muitas vezes se traduz em menor experimentação inicial, especialmente entre mulheres, que tendem a exigir de si mesmas um nível maior de domínio antes de começar.

    O ponto não é reduzir esse rigor, que é essencial em áreas sensíveis, mas entender que, no contexto da IA, parte do aprendizado acontece justamente no uso.

    O problema não é técnico, é comportamental

    Esse descompasso é relevante porque a IA não apenas automatiza tarefas, mas também redistribui vantagem competitiva.

    Quando esse ajuste não ocorre, o efeito é direto: atraso na curva de familiaridade com a ferramenta, menor exploração das suas aplicações e, consequentemente, menor captura de eficiência no dia a dia.

    Em um cenário onde o conhecimento técnico se torna rapidamente obsoleto, a capacidade de agir diante da incerteza passa a ter peso maior do que o domínio prévio.

    Nesse sentido, protagonismo deixa de ser uma ideia abstrata e passa a ser um comportamento observável: a disposição de interagir com a tecnologia antes da sensação de prontidão.

    Vantagem competitiva agora é assimétrica

    Há ainda uma dimensão adicional, menos evidente, mas igualmente importante.

    Sistemas de IA são moldados não apenas por quem os desenvolve, mas também pelos padrões de uso. Interações recorrentes influenciam ajustes, priorizações e caminhos de evolução das ferramentas.

    Assim, a sub-representação de determinados perfis no uso ativo da tecnologia tende a produzir soluções menos sensíveis às suas demandas.

    Ou seja, não utilizar também é, indiretamente, uma forma de não participar da construção do ambiente que, posteriormente, irá impactar o próprio trabalho.

    Quem usa também define o sistema

    Para quem pensa em estratégia, risco e resultado, esse não é um debate abstrato.

    A forma como a IA é adotada — e por quem — impacta diretamente a capacidade de geração de valor das organizações.

    Estudos da McKinsey já mostram que empresas com maior diversidade de gênero na liderança têm maior probabilidade de superar a performance financeira de concorrentes. Em paralelo, pesquisas de Boston College e Harvard indicam que o desenvolvimento de habilidades comportamentais está diretamente ligado a aumento de produtividade e retorno financeiro.

    Em áreas como Administração e Contabilidade, isso se traduz de forma objetiva:

    decisões mais bem calibradas,

    menor retrabalho,

    melhor alocação de recursos,

    e redução de riscos operacionais e reputacionais.

    O contrário também é verdadeiro.

    A adoção desigual de IA, somada a padrões de comportamento que atrasam a experimentação, tende a gerar perda de eficiência, decisões enviesadas e menor capacidade de captura de valor, afetando diretamente o resultado.

    Isso já impacta resultado de negócio

    No fim, a inteligência artificial não está apenas transformando o trabalho.

    Ela está influenciando quem gera mais valor dentro dele.

    E, nesse cenário, protagonismo deixa de ser uma escolha individual e passa a se manifestar como power skill observável: uma variável de desempenho.

    Share
    Comments (0)