*Por Loren Spindola, Líder do Grupo de Trabalho Inteligência Artificial da ABES
Desde o início dos tempos, qualquer ferramenta pode ser usada para o bem ou para o mal. Até uma vassoura pode ser usada para varrer o chão ou para bater na cabeça de alguém. Quanto mais poderosa a ferramenta, maior o benefício e o risco que ela pode causar. Isso também vale para a Inteligência Artificial, que pode se converter em uma arma muito poderosa. E, diferentemente da vassoura, que sabemos como usar e quais as suas funcionalidades, nós ainda não estamos nem perto de conhecer todo o potencial da IA. E isso gera uma reflexão importante. Quando a tecnologia que nós desenvolvemos muda o mundo, mais responsabilidade nós seremos por essa transformação. Nesse contexto, é preciso não só aceitar essa responsabilidade, como também desenvolver boas práticas globais, que auxiliem no processo de definição de princípios com os diversos fóruns internacionais, investimentos em centros de inteligência artificial, em pesquisa, enfim. A questão, no entanto, é que o setor tecnológico não pode endereçar tais desafios sozinho. E, aqui, chegamos ao ponto central da discussão: a necessidade de se promover a combinação entre a auto regulação e a atuação do governo.
Não podemos desassociar o fato de que a IA, como toda tecnologia, é desenvolvida para ser global. Ela precisa funcionar do mesmo jeito em todo lugar. Mas, como fazer isso se eu tenho leis e regulações diferentes entre os países?
Considerando o objeto da lei, é importante destacar que não há uma definição universalmente aceita do que é Inteligência Artificial. O que existe, na realidade, é o consenso para se evitar definições muito amplas ou enigmáticas (e, também, o consenso de se estipular o que não é IA; por isso, considero que o Projeto de Lei 21/20 foi muito hábil em afastar automação – ou estaríamos regulando o uso de fórmulas em planilhas, por exemplo). Sendo assim, Inteligência Artificial é, basicamente, um sistema computacional que pode aprender com a experiência, discernindo padrões nos dados imputados e, assim, tomar decisões e fazer previsões. Ela aprende com seus erros para gerar novos resultados mais precisos. O fato de a IA aprender com a experiência – ou seja, aprendizagem cognitiva, como nós, humanos -, faz com que não seja necessário programar o sistema e assim garantir respostas rápidas, precisas e dedutivas.
Vale ressaltar que o PL 21/20 trouxe um conceito baseado na definição de IA que a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) estipulou. E isso nos deixa confortáveis. Esse conceito traz o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou tomando decisões.
Hoje, sistemas de inteligência artificial são usados por todos os setores da economia. São diversos tipos de sistemas de IA oferecendo diferentes benefícios, oportunidades, riscos e desafios regulatórios. Ao propormos um Marco Legal da Inteligência Artificial no Brasil, é preciso ter a dimensão de que os sistemas de IA são diferentes entre si, e que a tentativa de os agrupar, sem considerar seu uso, é prejudicial para o desenvolvimento e aplicação da tecnologia no País.
É interessante observar que a IA força o mundo a enfrentar semelhanças e diferenças entre tradições filosóficas. Contudo, sabemos que a ética varia, sim, entre culturas. Apesar de ser desenvolvida globalmente, para ser usada em qualquer lugar e da mesma forma, a IA se transforma quando aplicada em um determinado local. E isso leva a uma nova reflexão: o aspecto sociotécnico da IA.
É muito válido trazer esse aspecto para a nossa discussão, porque apesar de parecer óbvio, isso é algo que ainda é pouco falado. Aqui no Brasil, para se ter uma ideia, há pouca literatura disponível sobre o assunto. Em seu trabalho de pesquisa, o Prof. Dr. Henrique Cukierman, da UFRJ, traz o olhar sociotécnico para o desenvolvimento de software. E, dentre várias analogias, fica claro que esse olhar nos impulsiona a ir além dos modelos matemáticos e algorítmicos, incluindo o contexto do mundo real. E, para juntar o técnico e o social, é preciso um olhar interdisciplinar – o que é, por sua vez, a essência para a mitigação de vieses. Usando o olhar sociotécnico e, considerando o fato de os sistemas de IA terem esse aspecto sociotécnico, é importante trazermos aqui que não será um grupo homogêneo que conseguirá esmiuçar toda a tecnicidade do assunto e, por consequência, desenhar uma lei que abarque todas as especificidades da tecnologia. É preciso trazer filósofos, engenheiros, desenvolvedores, pesquisadores, acadêmicos, juristas, empresários e a sociedade civil ao debate. Todos precisam contribuir.
Tão importante quanto a definição do objeto é pensar no objetivo da lei. Afinal, qual o objetivo de se estabelecer um Marco Legal de IA no Brasil? Onde o Brasil quer chegar com essa tecnologia? Imagino que nosso objetivo seja criar um ambiente propício para a inovação, para que as empresas invistam em pesquisa e desenvolvimento, para que as pessoas tenham confiança em usar cada vez os benefícios da tecnologia, trazer segurança jurídica. Ou seja, beneficiar sociedade, setor privado, academia e governo. E como encontrar o equilíbrio certo entre todas as necessidades? O fato é que a IA é uma tecnologia em constante evolução. E não temos como prever como ela estará daqui a um ano. Não temos bola de cristal.
Parece contraproducente (ou até mesmo utópico) pretender que uma lei se sobreponha a realidades futuras, sob risco de prejuízo ao próprio desenvolvimento da tecnologia em si. Ou, pior, que se pretenda regular situações/hipóteses ainda não previstas atualmente, o que tornaria inócua e obsoleta a norma. Em outras palavras, ainda que não haja uma lei específica sobre IA no Brasil, as empresas estão desenvolvendo soluções incríveis com a tecnologia, de forma séria e responsável.
É por isso que defendemos um texto com princípios, abordagem de risco, com diretrizes claras sobre onde e como o Brasil quer chegar. Se, e quando necessário, o uso da inteligência artificial deve ser objeto de regulação, não a tecnologia em si. Desta forma, usaremos a tecnologia para diminuir a injustiça e a desigualdade na sociedade. Tendo a tecnologia a nosso favor, aumentaremos nossa capacidade de pensar e agir, sempre com o olhar na transparência, no respeito e no humano.
*Loren Spindola,Líder do Grupo de Trabalho Inteligência Artificial da ABES