Saltar para o conteúdo

A IA transforma tudo, incluindo a cultura das empresas.

Homem apresenta ideias num quadro branco com notas adesivas, enquanto três pessoas o escutam numa sala iluminada.

Across de salas de administração e escritórios em open space, a inteligência artificial já não é uma experiência, mas uma realidade diária. À medida que os executivos pressionam para automatizar, acelerar e escalar, muitos colaboradores sentem-se postos de lado, confusos ou silenciosamente hostis. A tecnologia é nova, mas a verdadeira onda de choque atravessa a cultura da empresa.

Quando o entusiasmo pela IA no topo encontra dúvidas no terreno

Nos últimos dois anos, as ferramentas de IA passaram de projetos-piloto para caixas de entrada, agendas de reuniões e avaliações de desempenho. Os gestores falam de produtividade, experiência do cliente e inovação. Os colaboradores tendem a falar de segurança no emprego, controlo e confiança.

Inquéritos recentes a trabalhadores do conhecimento nos EUA apontam para uma fratura substancial. Uma grande fatia de líderes diz que a adoção de IA já criou divisões internas sérias, ameaçando a coesão das equipas e a lealdade. Muitos membros do staff, por seu lado, relatam uma mistura de curiosidade pelas ferramentas e um profundo desconforto com o que estas sinalizam para o seu futuro.

A IA não muda apenas a forma como as tarefas são feitas; obriga as pessoas a perguntar quem detém o poder, quem é valorizado e quem poderá ser substituído.

Dentro de muitas empresas, as reuniões sobre IA tornaram-se debates por procuração sobre respeito e reconhecimento. Colaboradores que se sentiram ignorados em programas de mudança anteriores veem agora a IA como mais uma iniciativa de cima para baixo. Quando a velocidade é valorizada em detrimento do diálogo, o entusiasmo da liderança pode cristalizar a resistência nas equipas.

Uma tecnologia que expõe fissuras antigas

A IA chega muitas vezes a organizações que já carregam tensões por resolver: entre a sede e os escritórios locais, entre TI e operações, entre especialistas experientes e contratações mais jovens. Assim que os projetos de IA começam, essas tensões ganham um novo palco.

O staff veterano pode sentir que o seu julgamento está a ser secundarizado por algoritmos concebidos por pessoas externas. Os trabalhadores mais jovens, supostos “nativos digitais”, nem sempre são mais positivos; muitos receiam que os cargos de início de carreira sejam precisamente os mais suscetíveis de automatização.

Essa divisão nota-se no comportamento tanto quanto na opinião. Alguns colaboradores evitam discretamente as novas ferramentas, voltam a processos antigos ou atrasam a adoção. Outros cumprem no papel, mas tratam as saídas da IA com suspeita, refazendo o trabalho manualmente. A empresa parece transformada; a cultura não se mexeu.

A adoção de IA é, na verdade, um projeto de mudança cultural

A diferença entre a implementação tecnológica e a prontidão cultural torna-se evidente quando a liderança tenta reorientar toda a organização em torno da IA. Um caso marcante, amplamente discutido nos media de negócios, é o da IgniteTech, um grupo de software liderado pelo CEO Eric Vaughan.

A partir de 2023, Vaughan empurrou a empresa para um modelo totalmente centrado em IA. Planos de formação, prioridades de projetos e reuniões semanais foram redesenhados em torno do uso de IA. A mensagem foi direta: adaptem-se à IA ou ficarão para trás.

Apesar do investimento e de uma direção clara, uma parte significativa da força de trabalho não alinhou. Muitos rejeitaram a intensidade da mudança, ou a sensação de que questionar o programa não era bem-vindo. Com o tempo, esse desalinhamento levou a uma elevada rotatividade de colaboradores.

A IgniteTech mostra que é possível requalificar pessoas mais depressa do que reescrever as suas crenças sobre como o trabalho deve ser.

A lição vai além de uma só empresa. A IA exige novos hábitos: experimentação mais rápida, abertura a sugestões das máquinas e conforto com mudanças constantes de ferramentas. Esses hábitos desafiam normas antigas assentes na hierarquia, em ciclos longos de planeamento e na perícia individual.

Porque a formação, por si só, raramente resolve a resistência

Muitas empresas respondem ao atrito com mais sessões de formação em IA. Porém, a resistência nasce muitas vezes menos da falta de compreensão técnica e mais da ansiedade quanto ao rumo.

Quando os trabalhadores não confiam na liderança, workshops de IA podem soar a discursos de vendas para um futuro que os deixa de fora. Neste contexto, alguns colaboradores mais jovens admitem uma oposição ativa: recusar usar sistemas obrigatórios, ignorar módulos de e-learning ou minar discretamente projetos-piloto.

Esse comportamento é arriscado para ambos os lados. As empresas interpretam uma adoção baixa como prova de que as ferramentas não estão prontas, e não como sinal de tensão cultural. Os colaboradores podem sentir-se momentaneamente protegidos, mas perdem oportunidades de influenciar a forma como a IA é usada nas suas funções.

Investir é fácil; obter adesão real é difícil

As rubricas orçamentais para IA estão a aumentar. Empresas que definem uma estratégia formal de IA tendem, de facto, a reportar melhores resultados do que as que improvisam pelo caminho. Objetivos claros e governação reduzem o caos e a duplicação de ferramentas.

Ainda assim, dinheiro e documentos de estratégia não garantem automaticamente segurança psicológica. As pessoas continuam a perguntar: isto vai cortar o meu emprego? O meu desempenho vai ser avaliado face a uma máquina? A gestão vai ouvir se o sistema falhar na vida real?

O sucesso da IA depende menos de quanto se gasta e mais de as pessoas se sentirem convidadas para a mudança, em vez de arrastadas por ela.

Isto significa que os gestores têm novas responsabilidades. Devem enquadrar a IA como algo feito com os colaboradores, não contra eles. Precisam de definir que tarefas poderão ser automatizadas e quais permanecem profundamente humanas. Sem essa franqueza, a suspeita preenche o silêncio.

Sinais de que a IA está a remodelar a sua cultura

Os líderes perguntam frequentemente como perceber se a IA está a mudar genuinamente a cultura da empresa, em vez de apenas acrescentar ferramentas por cima. Vários sinais dão pistas:

  • As equipas ajustam fluxos de trabalho para integrar a IA nas decisões do dia a dia, e não apenas em projetos paralelos.
  • Colegas questionam abertamente resultados da IA sem receio de serem rotulados de “anti-tecnologia”.
  • Descrições de funções e promoções recompensam a capacidade de trabalhar com IA, e não apenas heroísmos individuais.
  • Sindicatos ou comissões de trabalhadores são convidados para discussões sobre o impacto da IA antes de as ferramentas entrarem em produção.
  • A linguagem interna muda de “substituição” para “redesenho” de funções e responsabilidades.

Quando nenhum destes sinais aparece, a IA arrisca-se a tornar-se uma atualização superficial. A cultura agarra-se a padrões antigos enquanto reivindica transformação.

Conceber IA para a confiança, não apenas para a velocidade

Para muitos colaboradores, uma questão-chave é como os sistemas de IA são escolhidos, em primeiro lugar. Quando a seleção acontece à porta fechada, as pessoas assumem o pior. Quando veem pilotos realizados com feedback real e correções, a confiança cresce.

Algumas organizações juntam agora equipas de IA a “júris de colaboradores”. Estes pequenos grupos testam novas ferramentas, assinalam enviesamentos ou problemas de fluxo de trabalho e ajudam a decidir se avança/não avança. O processo abranda a implementação inicial, mas tende a acelerar a adoção posterior porque os colaboradores se sentem representados.

Estilo de implementação de IA Resultado típico na cultura
Implementação top-down com consulta mínima Conformidade no curto prazo, resistência silenciosa no longo prazo
Pilotos graduais com contributos diversos de colaboradores Início mais lento, confiança mais forte e cultura de aprendizagem
Foco financeiro sem um plano para as pessoas Poupanças no papel, aumento de rotatividade e fadiga

A escolha entre estes caminhos é, em última análise, cultural. Expressa como uma empresa vê as suas pessoas: como custos a controlar ou como parceiros a moldar a próxima fase do trabalho.

Novas funções, novos riscos e algum vocabulário útil

À medida que a IA se dissemina, muitas empresas estão a criar funções híbridas. Um analista de marketing, por exemplo, pode passar parte da semana a treinar modelos de conteúdo segundo o tom da marca. Um agente de apoio ao cliente pode curar respostas geradas por IA e intervir quando a nuance é necessária. Estas mudanças alteram tanto a identidade como as tarefas; as pessoas passam de “fazer o trabalho” para “orquestrar humanos e máquinas”.

Esta transição traz novos riscos:

  • Desajuste de competências: os trabalhadores podem ser avaliados por competências relacionadas com IA que nunca tiveram oportunidade de desenvolver.
  • Automatização-sombra: as equipas recorrem secretamente a ferramentas de IA que não foram validadas quanto à proteção de dados ou enviesamento.
  • Fadiga cultural: mudanças constantes de ferramentas corroem energia e lealdade, sobretudo quando cada “revolução” é apresentada como existencial.

Alguns termos circulam agora em slides de salas de administração que os colaboradores raramente veem explicados. “Governação de IA” refere-se às regras e processos para decidir como a IA é usada, quem a valida e o que acontece quando algo corre mal. “Fadiga da mudança” descreve o cansaço que se instala quando os trabalhadores se sentem bombardeados com novos sistemas sem tempo para se adaptarem.

Quando as empresas explicam estas ideias em linguagem simples e as ligam a preocupações do dia a dia, a IA deixa de parecer uma ameaça misteriosa e começa a parecer um projeto partilhado. A cultura não muda de um dia para o outro, mas começa a inclinar-se para um futuro em que pessoas e algoritmos trabalham realmente em conjunto, em vez de apenas ocuparem a mesma rede de escritório.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário