O debate sobre IA Generativa na economia global

Das grandes empresas à regulamentação dos governos, como essa tecnologia afeta o mercado de multinacionais

No mundo todo, a economia tem sido fortemente impactada pelo rápido avanço da Inteligência Artificial generativa. Investidores têm se interessado cada vez mais por apostar em tecnologias como o ChatGPT. Um relatório da CB Insights mostra que, em 2022, negócios que desenvolvem soluções com IA Generativa receberam um volume de investimento recorde de 2,6 milhões de dólares, em 110 negócios. No ano anterior, as startups dessa área tinham captado 1,54 milhões de dólares. O documento também indica que seis negócios da área chegaram ao patamar de “empresas unicórnios” - aquelas que alcançam o valor de mercado superior a 1 bilhão de dólares. São elas OpenAI, Huggind Face, Lightricks, Jasper, Glean e Stability AI. Avaliada em 29 bilhões de dólares, a mais valiosa do grupo é a OpenAI, empresa criadora de ferramentas como o ChatGPT e o DALL-E.

Uma projeção divulgada neste ano por analistas do banco Goldman Sachs, de Nova Iorque, apontou que tecnologias similares ao ChatGPT podem aumentar a produtividade a ponto de expandir em 7% o PIB global em um período de 10 anos. Porém, o salto de tecnologias com potencial de se aproximar das capacidades humanas tem gerado incertezas em relação ao impacto real que podem causar nos empregos e nas funções realizadas por pessoas. A pesquisa ainda indica que 300 milhões de empregos podem ser influenciados - tanto de maneira positiva quanto negativa - pela IA Generativa. As estimativas do Goldman Sachs se baseiam em uma análise de dados dos Estados Unidos e da Europa sobre as tarefas normalmente executadas por humanos em milhares de ocupações diferentes. 

O que indica o relatório:

Aumento da produtividade e da mudança no perfil das profissões são dois fatores que poderão ser percebidos com o uso da IA Generativa no mercado de trabalho. Pesquisas na área da economia apontam que pode levar um tempo para que se vejam cargos sendo substituídos completamente pelas máquinas. Para o professor na Delft University of Technology, Guilherme Perin, o uso de assistentes virtuais, como o ChatGPT, vêm para contribuir com o trabalho humano. “Um tradutor, por exemplo, pode realizar uma tradução e utilizar o ChatGPT para checar o trabalho. Seria mais um auxílio do que um substituto”, explica. Conforme o economista e pesquisador da área de tecnologia, Júlio Rohenkohl, o crescimento dessa área acompanha a ideia de renovação dos espaços de lucratividade: “Utilizar uma nova técnica e torná-la uma solução para o mercado, é o que leva alguém a investir em uma determinada tecnologia”. 

Em relação à velocidade de implementação dessas tecnologias, especialistas como Herman Bessler, cofundador do Instituto Brasileiro de Ciência de Dados (Bios-Unicamp), acreditam que plataformas como o ChatGPT são só o início da transformação. De acordo com o pesquisador Júlio Rohenkohl, aqueles que estão ganhando dinheiro com as novas tecnologias têm pressa para implementá-las. No entanto, ele lembra que essa adoção não depende apenas do seu potencial. “Para além da capacidade técnica e oportunidade de ganhar dinheiro, novas tecnologias despertam questões éticas, legais e morais, que podem retardar a implementação”, ressalta. 

Recentemente, o bilionário Elon Musk e centenas de cientistas assinaram um apelo para uma pausa de seis meses na pesquisa sobre inteligências artificiais mais potentes do que o GPT-4, o modelo mais recente lançado pela OpenAI, alertando para os "profundos riscos para a humanidade". Na carta publicada no site do Future of Life Institute, eles pedem uma pausa até que sejam definidos modelos de governança. Isso incluiria a criação de órgãos regulatórios, de meios de supervisão de sistemas e de ferramentas que ajudem a distinguir o que é criado por inteligência artificial.

O grupo também solicita a responsabilização por danos causados pela IA e a criação de instituições que possam fazer frente às "dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará". Musk é um dos cofundadores da OpenAI, o empresário presidiu a empresa até 2018 e, hoje, afirma que não tem nenhuma participação ou controle sobre ela. Além dele, a carta também foi assinada por executivos como Evan Sharp, cofundador do Pinterest, e Jaan Tallinn, cofundador do Skype. A lista inclui ainda o cofundador da Apple, Steve Wozniak; membros do DeepMind, laboratório de IA do Google, que lançou o robô Bard para competir com o ChatGPT, engenheiros da Microsoft, que fez investimento bilionário na OpenAI, além de acadêmicos e especialistas em IA. "Nos últimos meses, vimos os laboratórios de IA se lançando em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais potentes que ninguém, nem mesmo seus criadores, podem entender, prever, ou controlar, de forma confiável", diz a carta. Em entrevista à emissora ABC News, o próprio diretor da Open AI, Sam Altman, disse ter medo de que o ChatGPT seja usado para “desinformação em larga escala, ou para ciberataques.” 

Entretanto, a própria carta elaborada pelos cientistas e empresários é alvo de debate. Figuras como Elon Musk estão há anos lançando tecnologia estrondosas, em grande escala, sem maiores preocupações com o impacto sociocultural. Com a grande demanda em torno do ChatGPT, a mobilização contra a plataforma emerge de uma discussão muito mais profunda, que tem viés econômico. O jornal com foco em tecnologia, Olhar Digital, traz a fala de Max Tegmark, presidente da Future Of Life Institute: “É bastante hilário. Eu vi pessoas dizerem, ‘Elon Musk está tentando desacelerar a competição’. Isso não é sobre uma única empresa”. Desse modo, alerta-se para a necessidade de se observar os dois lados da questão, a preocupação social é válida, mas questões econômicas estão interseccionadas ao tema.


Regulamentação

Governos estão dando os primeiros passos em direção a uma regulamentação para a inteligência artificial generativa. Os Estados Unidos anunciaram que estão consultando pesquisadores, grupos da indústria e organizações de defesa da privacidade sobre como criar medidas de responsabilidade para a tecnologia. 

Em uma reportagem do Olhar Digital, aborda-se a frase “Sistemas de IA responsáveis podem trazer enormes benefícios, mas apenas se abordarmos suas possíveis consequências e danos”, dita por Alan Davidson, chefe da Administração Nacional de Telecomunicações e Informações do Departamento de Comércio dos EUA. Ele comentou ainda que o governo quer determinar se a IA funciona da maneira que as empresas afirmam; se são seguras e eficazes; se têm resultados discriminatórios; se espalham ou perpetuam a desinformação e se respeitam a privacidade dos indivíduos. 

Na China, o chat GPT ainda não está disponível, mas outras ferramentas equivalentes estão em desenvolvimento. A Administração do Ciberespaço, agência reguladora do país chinês, divulgou diretrizes preliminares para os sistemas de IA Generativa. O órgão realizará análises de segurança de novos serviços lançados por empresas chinesas. Além disso, pontuou que essas companhias são responsáveis pela precisão de seu conteúdo e devem ser transparentes sobre os conjuntos de dados usados para treinar ferramentas avançadas de IA. A China foi um dos primeiros países a levantar o debate sobre a regulamentação de novas tecnologias. No ano passado, pediu aos gigantes da internet que revelassem os algoritmos que são utilizados em suas plataformas de inteligência, algo que possibilitaria que o país entendesse a lógica de funcionamento das plataformas. Essas informações costumam ser um segredo bem guardado pelas corporações.

No Brasil, o Projeto de Lei n° 21/2020, popularmente conhecido como Marco Legal de Inteligência Artificial, é o texto mais avançado sobre inteligência artificial no país. O objetivo é estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da IA no território nacional. O PL já foi aprovado, com alterações, pela Câmara dos Deputados e está, desde fevereiro de 2023, sob análise do Plenário do Senado Federal. 

Eduardo Bismarck, deputado federal (PDT-CE) e autor do PL, disse à Agência Câmara de Notícias que o objetivo é criar uma legislação que, ao mesmo tempo, estimule a evolução desse tipo de tecnologia e proteja os cidadãos do mau uso dela. Segundo ele: “Precisamos de uma edição de legislação tornando obrigatórios os princípios consagrados no âmbito internacional e disciplinando direitos e deveres”.

Eduardo prevê a figura do “agente” de IA, que pode ser tanto a pessoa que desenvolve e implanta um sistema de IA (agente de desenvolvimento), quanto o que opera o sistema (agente de operação). Esses agentes terão deveres como, por exemplo, responder legalmente pelas decisões tomadas por um sistema de inteligência artificial. Além disso, também deverão assegurar que os dados utilizados respeitam a Lei Geral de Proteção de Dados (LGPD), norma regularizadora do tratamento e uso de dados pessoais de clientes e usuários de empresas do setor público e privado.

 O ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, ao participar da abertura do seminário ‘A Construção do Marco Regulatório da Inteligência Artificial no Brasil’ afirmou: "Hoje se percebe com muita clareza que o momento de discutir seriamente a regulação em caráter geral da inteligência artificial (IA) já é de extrema urgência". O seminário iniciou na última segunda-feira, dia 17, e ocorreu no Conselho da Justiça Federal (CJF), em Brasília - DF. A regulamentação, não só no Brasil, como em todo o mundo, implicaria na transparência sobre a forma de faturamento das multinacionais da tecnologia que lucram bilhões todos os anos.