*Por Cibele Perillo
Sempre gostei de poesias, especialmente de haikai (ou haicai), que são poemas curtos, de três versos, de origem japonesa. Para as primeiras linhas do meu primeiro artigo no Mobile Time eu pedi ao Claude, assistente de Inteligência Artificial (IA) Generativa da Anthropic, para gerar um haikai sobre inteligência artificial. O resultado: Raciocínio sintético / Máquinas ganham intelecto / IA, futuro incerto.
Poderíamos filosofar se há algum futuro que não seja incerto, mas certamente uns são mais incertos que outros. Creio ser esse o caso da regulação de inteligência artificial no Brasil e de seus impactos para a economia.
Muitas das incertezas advêm do fato de que a discussão sobre a necessidade, a urgência e o modelo de um marco regulatório para IA no Brasil permaneceu, por mais tempo do que deveria, restrita ao interesse de juristas – afinal, são eles os autores do principal projeto de lei em discussão hoje, o PL 2338/2023 – e das empresas de tecnologia. Acontece que quase toda empresa é consumidora de tecnologia e, potencialmente, já é ou será usuária de aplicações de IA, no mínimo. Afinal, cada vez mais a IA será diferencial de produtividade e competitividade. Como o tema parece distante do core business para diversos setores, organizações de educação, da indústria 4.0 e do agronegócio, por exemplo, talvez não tenham ainda analisado os impactos de uma regulação de IA, nos moldes do PL 2338/2023, para seus negócios.
Em 2022, quando a União Europeia debatia sua regulação para IA, uma pesquisa feita com 113 startups da região revelou que 96% delas eram provedoras de IA e 65% delas estavam familiarizadas com o texto regulatório em discussão. Por isso mesmo, 51% das startups avaliavam que iriam desacelerar o ritmo de desenvolvimento de IA devido ao caráter prescritivo da legislação e aos custos de adequação às obrigações da norma.
No Brasil, pesquisa com o universo de startups, em 2021, apontou que somente 4% conheciam bem a proposta de regulação de IA em debate aqui no país naquele momento (era o PL 21/2020, da Câmara dos Deputados). Passados três anos, quantas serão as startups que hoje estão familiarizadas com os riscos do PL 2338/2023 e os potenciais custos de compliance que terão?
Um outro levantamento, feito em 2023 com micro, pequenas e médias empresas (MPMEs) de diversos setores da economia revelou que 74% delas estão usando IA sempre ou muitas vezes, e que 46% delas têm dificuldades relacionadas ao custo da tecnologia. Qual será o impacto de conformidade, e quantas MPMEs terão que desacelerar a adoção de IA e, consequentemente, perderão competitividade, caso os moldes atuais do PL 2338/2023 prosperem?
Considerando que o texto mais recente do projeto de lei, apresentado pelo senador Eduardo Gomes no final de abril, tem como principal característica tratar de obrigações e restrições – o que permeia 35% dos 438 dispositivos do texto, de acordo com um Raio-X publicado pelo MID; e considerando que o PL também impõe medidas de governanças bastante robustas, complexas e custosas a todos que desenvolvem, fornecem e operam sistemas de IA, esse deveria ser um tema de interesse e envolvimento de todos.
No agronegócio, o SEBRAE estima que a adoção de IA crescerá 25,5% até 2026. Porém, a utilização de IA no campo poderá ser desencorajada devido ao formato da regulação. Sistemas de IA de larga escala, que analisam grandes volumes de dados agrícolas para prever rendimentos ou detectar doenças e que possam afetar muitas pessoas indiretamente, podem ser classificados como de alto risco se não forem suficientemente transparentes ou auditáveis. Isso exigiria investimentos significativos em sistemas de compliance robustos para garantir que essas ferramentas de IA atendam às novas exigências regulatórias, o que aumentaria custos operacionais, além do risco de seus agentes responderem por eventuais danos a terceiros, ainda que seja devido a falhas operacionais, independente de culpa ou dolo.
Mesmo no caso de soluções de IA cujo risco não venha a ser considerado alto, o regime de responsabilidade proposto no PL 2338/2023 impõe a presunção de culpa do agente e a inversão do ônus da prova. Um desestímulo a pequenos agricultores.
As melhores políticas públicas e regulações baseiam-se em evidências e são construídas com amplo debate e envolvimento das partes interessadas. Com frequência, mecanismos de consulta pública são utilizados com essa finalidade. No caso da IA, o que tudo indica é que o Poder Executivo não considera necessário ampliar a escuta efetiva aos setores que serão impactados – potencialmente, todos. Há uma noção de urgência de líderes do Executivo para aprovar o marco regulatório de IA ainda esse ano; uma urgência que é incoerente e que corre a galope na direção oposta dos modelos de regulação em desenvolvimento nos países com maior protagonismo em IA no mundo, como Estados Unidos, Reino Unido, Japão e Singapura, entre outros.
Desse jeito, como diria o meu haikai escrito pela IA Generativa, o futuro será realmente incerto.
*Cibele Perillo é Public Policy Lead na AWS e líder do Grupo de Trabalho Inteligência Artificial da Associação Brasileira das Empresas de Software (ABES)
Aviso: A opinião apresentada neste artigo é de responsabilidade de seu autor e não da ABES – Associação Brasileira das Empresas de Software