Escolha uma Página
Compartilhe

*Por Raghu Raghuram

Alguns meses atrás, houve um “boom” em nosso setor no mundo inteiro: o lançamento do ChatGPT-3.5 beta. Desde então, mergulhamos em um frenesi de interesse, inovação e investimento em Inteligência Artificial (IA), especificamente a IA generativa.

Tenho idade suficiente para me lembrar dos ciclos anteriores de propaganda exagerada da IA, só que desta vez há uma diferença: a IA generativa nos permite interagir com as ferramentas avançadas da tecnologia de maneira dialógica, fazendo com que a  linguagem natural seja associada a uma criatividade “semelhante à humana” para gerar um novo conteúdo, incluindo texto, código, vídeo, áudio e muito mais.

Agora, com os grandes modelos de linguagem (LLMs), um idioma nativo como inglês ou mandarim torna-se uma linguagem de programação real. Os prompts de palavra que conferimos a esses modelos são essencialmente o código que eles usam para calcular uma resposta. É o mais próximo que já chegamos de uma verdadeira democratização da programação.

Em suma (e está claro que estamos no meio de um avanço inédito em uma geração), estão surgindo oportunidades para transformar as principais funções de negócios, como desenvolvimento de software, suporte ao cliente, vendas e marketing. À medida que essa próxima onda de inovação em IA acelera, ela terá um impacto profundo em toda a economia global. Com a IA generativa, podemos reinventar a educação abordando a variabilidade na aprendizagem, ajudar os médicos a fornecer diagnósticos clínicos, auxiliar os consumidores a tomar decisões de investimento, e muito mais. Embora esses sejam apenas alguns exemplos, considere esta projeção: um relatório recente da McKinsey sugere que a IA generativa pode gerar até US$ 7,9 trilhões em valor econômico global anualmente.

Os três grandes desafios que devemos superar

Como geralmente acontece nos estágios iniciais de uma inovação em grande escala, estamos enfrentando grandes obstáculos para uma adoção mais ampla. Para aproveitar todo o potencial da IA generativa nas empresas, há três desafios centrais que devemos superar coletivamente.

  • Do alto custo ao preço acessível

A preparação e o gerenciamento dos atuais modelos de IA generativa são complexos e caros. Eles requerem alta capacidade de computação especializada e rede de grande velocidade com muita memória. Existe uma relação 1:1 entre o desempenho do modelo de IA e a infraestrutura de computação, uma dinâmica que não é escalável nem sustentável. Andreessen Horowitz descreveu recentemente o treinamento de um modelo como o ChatGPT como “uma das tarefas computacionalmente mais intensivas que a humanidade já realizou até o momento”. O preço de uma única capacitação varia de US$ 500 mil a US$ 4,6 milhões, considerando, ainda, que a prática permanecerá como uma despesa contínua à medida que os modelos são atualizados.

Analisando esses custos impressionantes, muitos chegaram à conclusão de que nosso mundo será limitado a um número muito pequeno de “mega LLMs” como o ChatGPT.

Entretanto, temos outra alternativa. Vejo um futuro em que empresas comuns serão capacitadas a criar e executar seus próprios modelos personalizados de IA a um preço acessível. Tudo se resume à flexibilidade e escolha: a maioria dos CIOs com quem converso planeja usar mega LLMs em diversos casos de uso, mas também desejam criar vários modelos de IA menores que poderão otimizar tarefas específicas. Esses modelos geralmente se baseiam em software de código aberto (OSS). Na verdade, o grande volume de inovação em IA de código aberto no momento é surpreendente. Não é exagero prever que muitas companhias adotarão esses modelos como opção para muitos casos de uso, com menos dependência dos enormes LLMs proprietários predominantes atualmente.

Esses formatos abertos e desenvolvidos para fins específicos aproveitarão os dados específicos de domínio de uma organização, que são a propriedade intelectual exclusiva delas. Temos a oportunidade de executar esses sistemas de IA mais compactos de maneira econômica em uma infraestrutura dedicada, como as GPUs (unidades de processamento gráfico) mais baratas e, quem sabe um dia, CPUs de baixo custo modificadas, para fornecer o desempenho e a  taxa de transferência exigida pelas cargas de trabalho de IA. Reduzindo os custos e criando soluções que oferecem flexibilidade e escolha, podemos viabilizar a inovação da IA, tornando-a mais acessível às principais empresas.

  • Da “magia” da IA especializada à experiência da IA democratizada

Atualmente, os profissionais necessários para criar, ajustar e executar modelos de IA são especializados e escassos. Isso é assunto de quase todas as conversas que tenho com CEOs e CIOs, que sempre o classificam entre seus maiores desafios. Eles estão cientes de que o espaço de software de código aberto da IA está avançando muito rápido e, por isso, querem ser capazes de aderir às inovações com rapidez e facilidade à medida que surgem, sem ficarem presos a uma única plataforma ou fornecedor. Esse nível de adaptabilidade é difícil de alcançar quando apenas uma porcentagem relativamente pequena de profissionais de tecnologia entende completamente a “magia” por trás dos modelos de IA atuais.

Para suprir esse déficit de habilidades, precisamos simplificar radicalmente o processo e as ferramentas que usamos para criar e treinar modelos de IA. É aqui que as arquiteturas de referência entram em ação, fornecendo um esquema e um caminho útil para a maioria das organizações que não possuem experiência interna para criar soluções de IA do zero.

  • Do risco à confiança

Por fim, e talvez o mais importante, precisamos passar do risco à confiança. Os modelos atuais de IA criam riscos significativos, incluindo questões de privacidade, ameaças legais e normativas, bem como o vazamento de propriedade intelectual. Esses obstáculoss têm o potencial de arruinar a reputação de uma empresa, prejudicar clientes e colaboradores e impactar negativamente a receita.  Muitas organizações estabeleceram políticas que restringem o uso de ferramentas de IA generativas pelos funcionários após o vazamento acidental de dados internos e confidenciais em plataformas como o ChatGPT. Além disso, os atuais sistemas de IA generativos sofrem de uma falta fundamental de confiança porque frequentemente “alucinam”, criando novos conteúdos sem sentido, irrelevantes e/ou imprecisos.

Como setor especializado, precisamos desenvolver um conjunto sólido de princípios éticos para garantir e reforçar a imparcialidade, a privacidade, a responsabilidade, a propriedade intelectual de terceiros e a transparência dos dados de treinamento. Um grande e crescente ecossistema de organizações pretende abordar os principais problemas de explicabilidade da IA, integridade e privacidade de dados. A comunidade de código aberto está inovando no centro desse movimento, trabalhando para ajudar as empresas a treinar e implantar seus modelos de IA de maneira segura e controlada.

A próxima onda da inovação tecnológica 

Assim como a revolução das aplicações móveis transformou os negócios e nosso relacionamento com a tecnologia nos últimos 15 anos, uma nova onda de soluções habilitadas para IA está prestes a aumentar drasticamente a produtividade do trabalhador e acelerar o desenvolvimento econômico em todo o mundo. Estamos nos estágios iniciais de um novo superciclo de inovação. Nosso desafio coletivo é tornar essa nova e potente tecnologia mais econômica, mais acessível e mais confiável.

Em minhas conversas com tomadores de decisão de IA em todo o mundo, existe um consenso geral de que precisamos encontrar um equilíbrio estratégico: devemos agir com cautela quando houver incógnitas, especialmente em relação à confidencialidade, privacidade e uso indevido de informações proprietárias. Também é fundamental equiparmos as companhias para que adotem rapidamente os novos modelos de IA, a fim de que elas possam participar da próxima onda de inovação de maneira responsável e ética.

*Raghu Raghuram, CEO da VMware

Aviso: A opinião apresentada neste artigo é de responsabilidade de seu autor e não da ABES – Associação Brasileira das Empresas de Software

acesso rápido

pt_BRPT