Por que é preciso ir além da tecnologia e tratar a IA como tema estratégico, ético, organizacional e societal desde o início
*Por Natália Marroni Borges
Ao falar sobre inteligência artificial, o caminho mais comum é começarmos pela tecnologia — temas como dados, modelos, algoritmos, frameworks, infraestrutura, fornecedores pautam o início de quase qualquer conversa a nível corporativo e governamental. Por um lado, isso faz muito sentido pois não haverá nenhuma pauta sobre IA se não houver IA desenvolvida.
Mas essa centralidade técnica, que muitas vezes orienta a adoção de novas ferramentas nas empresas, já se mostrou limitada em transições tecnológicas anteriores, como a introdução de sistemas de ERP, a transformação digital impulsionada pela computação em nuvem ou, mais recentemente, o hype que testemunhamos em torno do big data. Em todos esses casos, o foco inicial em infraestrutura e ferramentas técnicas – sem uma reflexão mais ampla sobre estratégia, pessoas e processos – resultou em implementações majoritariamente falhas, retrabalho, projetos com custos e duração muito superior ao previsto, resistência cultural ou, pior de tudo, soluções subutilizadas. Quem não conhece uma história assim não viveu TI nos últimos 30 anos.
Com a IA, insistir nesse caminho pode ser um pouco mais problemático, especialmente se considerarmos o potencial transformador — e disruptivo — dessa tecnologia. Estamos diante de algo que ainda não conseguimos dimensionar, que impacta desde operações do dia a dia até a forma como tomamos decisões, interagimos com clientes e repensamos modelos de negócio.
Numa avaliação mais crítica, não é difícil afirmar que a inteligência artificial envolve múltiplas dimensões que demandam conhecimentos, habilidades e responsabilidades distintas. Estratégia, cultura organizacional, governança, ética, capacitação de equipes e regulação são centrais — e, muitas vezes, mais urgentes do que a modelagem técnica em si. Fóruns europeus, por exemplo, têm trazido à tona outras camadas igualmente relevantes, como transparência algorítmica, soberania digital, direitos fundamentais, impactos ambientais e participação cidadã no debate sobre IA.
Ignorar essas camadas — ou colocá-las sob a responsabilidade de uma única área (ou pior, de uma única pessoa) — compromete não apenas os resultados dos projetos de IA, mas também a legitimidade e a sustentabilidade dessas iniciativas no longo prazo. Se trata de incorrer no erro que já cometemos no passado recente: temas que abarcam conhecimentos que vão além da perspectiva tecnológica precisam ser conduzidos por pessoas que, de fato, dominem esses temas.
Por esse motivo, separar essas dimensões é o primeiro passo de uma decisão estratégica. Isso significa reconhecer que IA não é um “produto pronto” a ser plugado em um processo, mas, sim, um processo em si — que exige coordenação entre áreas, escuta ativa de diferentes atores, adaptação constante e maturidade organizacional.
Insistir em abordagens centralizadas, técnicas e apressadas é repetir erros que já deveríamos ter superado. Mais do que nunca, precisamos tratar a inteligência artificial como um tema organizacional e societal — e não apenas como uma frente de inovação tecnológica.
Para enfrentar esse desafio de forma responsável, empresas e governos poderiam — e deveriam — investir em iniciativas que articulem essas múltiplas dimensões desde o início. Isso inclui a criação de comitês interdisciplinares de IA, com participação de áreas como estratégia, jurídico, RH, tecnologia e governança; a elaboração de marcos internos de uso ético e responsável, inspirados em boas práticas internacionais; e o desenvolvimento de programas contínuos de capacitação, voltados não apenas a profissionais técnicos, mas (e muito mais) também a lideranças e tomadores de decisão. Além disso, fomentar espaços de escuta com a sociedade civil, apoiar pesquisas independentes e incluir critérios sociais e ambientais na avaliação de projetos de IA são passos fundamentais para garantir que a tecnologia seja uma aliada do bem comum — e não apenas de ganhos operacionais ou de curto prazo.
Apesar de reconhecermos que muitas dessas ações já vêm sendo adotadas por governos e organizações ao redor do mundo, é preciso admitir que, na prática, as soluções de IA ainda são frequentemente tratadas com senso de urgência, de forma fragmentada e sem estruturas de governança claras. De um lado, discutimos os riscos e responsabilidades em fóruns especializados; de outro, vemos uma enxurrada de casos de uso desconectados dessas reflexões, muitas vezes conduzidos por equipes sem preparo para lidar com as implicações éticas, sociais e políticas envolvidas. A boa notícia é que o caminho já está sendo traçado — mas só avançaremos de maneira estruturada se tratarmos a inteligência artificial não mais como uma corrida por inovação, e sim como uma construção coletiva e consciente de futuro.
*Natália Marroni Borges é pesquisadora no Think Tank da ABES, Pesquisadora membro do grupo IEA Future Lab (vinculado à Universidade Federal do Rio Grande do Sul – UFRGS), Pós-doutoranda em Inteligência Artificial e Foresight e professora na UFRGS.
Aviso: A opinião apresentada neste artigo é de responsabilidade de seu autor e não da ABES – Associação Brasileira das Empresas de Software
Artigo publicado originalmente no site IT Forum: https://itforum.com.br/colunas/ia-alem-perspectiva-tecnologica/