Em apenas três anos, o mundo mudou de forma radical com a adoção massiva da Inteligência Artificial generativa. O que começou como curiosidade tecnológica transformou-se numa infraestrutura invisível do quotidiano: estudantes aprendem com IA, gestores decidem com IA, programadores codificam com IA, jornalistas escrevem com IA, governos analisam cenários com IA. Não estamos perante mais uma vaga de digitalização ou de marketing “vapour ware”. Estamos perante uma mudança cognitiva profunda que reconfigura quem decide, como decide e, sobretudo, quem controla e quem é controlado.
Entre 2023 e 2026, já não foi uma aceleração suave com impacto, como foi quando a Internet, o Google ou o o iPhone, foi uma disrupção profunda e de velocidade exponencial. Passámos da IA como ferramenta experimental para a IA como copiloto permanente. A produtividade individual disparou, a barreira de acesso ao conhecimento caiu abruptamente e capacidades antes reservadas a especialistas tornaram-se transversais. Em três anos comprimimos transformações que, historicamente, levariam décadas. Mas o ponto crítico não é o que já aconteceu. É a velocidade a que aconteceu e o que essa velocidade antecipa.
A questão central deixou de ser se a Inteligência Artificial é mais rápida ou mais eficiente do que a inteligência humana. A pergunta decisiva é outra: quem controla quem? A inteligência humana continua, em teoria, a definir objetivos, valores e enquadramentos éticos. Contudo, na prática, a inteligência artificial começa a moldar as próprias decisões humanas. Quando um gestor segue a recomendação do modelo, quando um médico valida um diagnóstico sugerido por um sistema algorítmico, quando um decisor político escolhe o cenário “ótimo” gerado por uma máquina, o controlo já não é binário. É distribuído, diluído e, muitas vezes, invisível. O erro deixa de ser humano… a responsabilidade passou para outrem sem personalidade jurídica e, de certa forma, esotérica.
Não se trata de substituição do humano pela máquina. Trata-se de dependência progressiva. A IA não pensa como um humano, mas pensa por humanos, em escala, velocidade e complexidade inalcançáveis pela cognição individual. Quanto mais confiamos, mais delegamos; quanto mais delegamos, menos questionamos; e quanto menos questionamos, mais somos, subtilmente, controlados pelas lógicas que os sistemas incorporam.
Este dilema torna-se ainda mais crítico quando se observa a concentração de poder tecnológico à escala global. Uma parte significativa da capacidade de definir infraestruturas, modelos e regras está concentrada em poucos atores. Figuras como Elon Musk, Jeff Bezos, Mark Zuckerberg, Jack Ma ou Xi Jinping não controlam apenas empresas ou Estados; influenciam ecossistemas inteiros de dados, modelos e plataformas. A soberania deixou de ser apenas territorial ou económica. Tornou-se cognitiva e algorítmica. Quem define os modelos, quem controla os dados e quem estabelece as regras de decisão automática condiciona o que é possível decidir e o que deixa de o ser.
Neste contexto, o risco maior não é a Inteligência Artificial “dominar” os governos. São os governos aceitarem ser governados por sistemas que não compreendem plenamente, delegando decisões críticas sem capacidade real de escrutínio, auditoria ou controlo estratégico.
A aceleração intensificar-se-á em 2026 com a entrada definitiva na era dos modelos multimodais. Durante anos, a IA foi especializada: um modelo para texto, outro para imagem, outro para voz. Essa era terminou. Surgem sistemas capazes de compreender e gerar texto, imagem, áudio, vídeo e ação de forma integrada. Modelos como Gemini, GPT, Claude e outros já não respondem a pedidos isolados; raciocinam sobre contextos completos, cruzando sinais, dados, histórico e intenção antes de agir. A interação torna-se mais humana, a decisão mais contextual e a automação verdadeiramente inteligente. A IA deixa de ser uma ferramenta e passa a ser um agente operacional com capacidade de computação virtualmente ilimitada.
O impacto é transversal: na educação, tutores multimodais acompanham o aluno em tempo real; na saúde, exames, relatórios e imagens são interpretados de forma integrada; na indústria, inspeções visuais combinam-se com dados operacionais para decisões automáticas; nos serviços, o atendimento vê, ouve, fala e compreende o cliente; na gestão, copilotos interpretam informação complexa e sugerem ações estratégicas. Em todos estes casos, a questão repete-se: quem decide afinal? O humano, o sistema ou a combinação de ambos? E em que proporção?
A grande mudança não é tecnológica. É cognitiva e política. A Inteligência Artificial deixa de ser uma ferramenta especializada e passa a ser um parceiro transversal na decisão. O verdadeiro desafio já não é “ter IA”. É saber quem a controla, como a governa e até onde está disposto a ser controlado por ela. Sem recorrer a futurologia ou astrologia, há um dado objetivo impossível de ignorar: se em três anos tudo mudou, e se a mudança foi exponencial, então 2026 não será apenas mais um passo. Será uma aceleração da própria aceleração. O que demorou três anos a acontecer poderá acontecer em meses. A pergunta final não é tecnológica. É estratégica, organizacional e humana: estamos preparados para continuar a controlar… ou estamos prestes a ser definitivamente controlados?
– Rui Ribeiro
Consultor Transformação Digital e Professor Universitário

