A notícia em destaque da semana ainda é ChatGPT, que, de certa forma, é atingido “indiretamente” por uma carta de recomendação para rogar a suspensão da evolução tecnológica em Inteligência Artificial (IA) no mundo.
As personalidades que assinaram a carta afirmam em um trecho que: “pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
Acredito que a primeira reflexão é entender o porquê da carta. Para iniciar o raciocínio há dois pontos dúbios no texto: o primeiro é a suspensão imediata das pesquisas, sem ao menos mensurar os riscos; o segundo é a publicização dos projetos como forma de mapeamento de sistemas de IA em treinamento. Por mais que pareça “normal”, a jogada ainda não está clara.
O mercado da tecnologia é bastante voraz e triunfa aquele que é competente, ousado e perspicaz na mensuração dos riscos e, consequente, êxito. É a regra para qualquer modelo de negócio. No caso da OpenAI não é diferente.
O maior disparate da carta está diante dos fatos históricos. A busca por inovação em IA se remete desde a década de 50 e, apesar dos altos e baixos das tecnologias utilizadas nas pesquisas, a IA se mostrou um dos campos mais promissores para auxiliar a humanidade no futuro.
A OpenAI não nasceu da noite para o dia. Ela surge em 2019 como um tipo derivado do sistema Transfomer (GPT-1), criado pela Google no ano de 2018. A inspiração desse primeiro modelo fez a OpenAI emplacar as versões GPT (2, 3/3.5 e 4). Ela não está sozinha na corrida por inovação em IA, pois também estão no jogo as empresas Meta (Galactica, 2021), Google (LaMDA, 2021 e PaLM, Sparrow e Switch Transformer, 2022) e AI21Labs (Jurassic-1, 2021).
Isso demonstra que o desenvolvimento econômico e, consequentemente, o social são impactados positivamente por qualquer inovação. Então, a referida carta não parece muito promissora para a sociedade global.
Parece-me que a carta é mais uma estratégia de intimidação do que um aviso de alerta ou prudência aos pesquisadores de IA. Trazer à luz os males da ficção científica em IA e sem embasamento científico é uma forma de provocar a derrocada da OpenAI, Google e outras empresas que investem na inovação.
O impedimento exigido na carta enseja ser proposital e até demonstra a prática abertamente do lobby corporativo contra os especialistas em IA. Logo, não me parece correto a medida adotada.
A carta teria mais utilidade se fosse dirigida ao uso de boas práticas no emprego da IA em inovações tecnológicas e embasar que qualquer pesquisa tem no seu ciclo de vida a análise ética dos riscos com a sociedade. Assim, o papel dos notórios assinantes poderia ser mais construtivo e positivo para todos.
No final, o dilema entre máquinas e seres humanos demonstra que são as pessoas os causadores de todos os males e não a tecnologia propriamente dita, seja ela qual for.
* Professor Doutor da Faculdade de Computação e Informática na Universidade Presbiteriana Mackenzie (UPM),
Assessor Especialista no NIC.br e CGI.br, Doutor em Ciência da Computação e Mestre em Direito Internacional
Membro da Internet Society e da Associação Brasileira de Estudos de Defesa.