Tecnologia

AI vs UE: ChatGPT subverte as intenções de regulamentação de Bruxelas

A UE deve agora voltar à prancheta para descobrir como regular efetivamente a IA

Como você protege as pessoas que usam novas tecnologias quando elas podem mudar radicalmente de um dia para o outro?

Esse é o enigma que a UE enfrenta enquanto corre para regular a inteligência artificial.

A IA é amplamente utilizada, mas o robô conversacional ChatGPT transformou a forma como as pessoas veem a tecnologia – e como os reguladores devem monitorá-la para se proteger contra riscos.

Criado pela startup norte-americana OpenAI , o ChatGPT apareceu em novembro e foi rapidamente utilizado por usuários maravilhados com sua capacidade de responder perguntas difíceis com clareza, escrever sonetos ou códigos e fornecer informações sobre questões carregadas.

O ChatGPT até passou em exames médicos e jurídicos estabelecidos para estudantes humanos, obtendo notas altas.

Mas a tecnologia também traz muitos riscos, pois seu sistema de aprendizado e modelos concorrentes semelhantes são integrados a aplicativos comerciais.

A União Europeia já estava profundamente envolvida no processo de criação de uma estrutura regulatória online e agora deve voltar à prancheta para descobrir como regular efetivamente a IA.

A Comissão Europeia, o braço executivo da UE, anunciou pela primeira vez um plano em abril de 2021 para um livro de regras de IA, e o Parlamento Europeu espera finalizar seu texto preferido da Lei de IA este mês.

O comissário da indústria da UE, Thierry Breton, disse que os eurodeputados, a comissão e os estados membros estão trabalhando juntos para “esclarecer ainda mais as regras” da tecnologia do tipo ChatGPT – conhecida como IA de uso geral – sistemas que possuem uma vasta gama de funções.

Oportunidades x riscos

Os usuários de mídia social se divertiram experimentando a saída do ChatGPT, mas não é um jogo. Os professores temem que os alunos o usem para trapacear e os formuladores de políticas temem que seja usado para espalhar informações erradas.

“Conforme demonstrado pelo ChatGPT, as soluções de IA podem oferecer grandes oportunidades para empresas e cidadãos, mas também podem representar riscos”, disse Breton.

“É por isso que precisamos de uma estrutura regulatória sólida para garantir uma IA confiável baseada em dados de alta qualidade”.

O plano é que a Comissão Europeia, o Conselho Europeu, que representa os 27 estados membros, e o parlamento discutam uma versão final da lei de IA a partir de abril.

Dragos Tudorache, o eurodeputado que supervisiona o esforço para aprovar a Lei da IA ​​no parlamento, disse que o ChatGPT é um exemplo publicamente conhecido e divulgador de IA de uso geral e vários derivados.

Usando o que é conhecido como “modelo de linguagem ampla”, o ChatGPT é um exemplo de IA generativa que, operando sem orientação, pode criar resmas de conteúdo original, incluindo imagens e texto, minerando dados anteriores.

“De fato, proporemos um conjunto de regras para governar a IA de uso geral e os modelos fundamentais em particular”, disse Tudorache, eurodeputado romeno.

Na semana passada, Tudorache e o eurodeputado italiano Brando Benifei apresentaram aos colegas legisladores um plano para impor mais obrigações à IA de uso geral, um texto que não constava da proposta original da comissão.

Alguns especialistas reclamam que os riscos de sistemas como o ChatGPT sempre foram claros e os avisos foram compartilhados com funcionários da UE quando o trabalho começou na Lei de IA.

“Nossa recomendação na época era que também devíamos regular os sistemas de IA que têm uma variedade de usos”, disse Kris Shrishak, bolsista de tecnologia do Conselho Irlandês de Liberdades Civis.

Mas ele disse que também é importante identificar os riscos dos sistemas generativos de IA, uma vez implantados.

‘Boa base’

Shrishak disse que a eficácia da lei dependeria do rascunho final, mas que “estabelece uma boa base. Tem certos mecanismos para identificar novos riscos”.

Uma questão mais premente seria a fiscalização, alertou, acrescentando que o parlamento está trabalhando para fortalecer esse aspecto.

“O regulamento é apenas um pedaço de papel se não for cumprido”, disse Shrishak à AFP .

O CEO da OpenAI, Sam Altman, sugeriu que “grandes governos mundiais” e “instituições internacionais confiáveis” se unam e produzam um conjunto de regras que digam explicitamente o que o sistema deve ou não fazer.

Questionado por um repórter da AFP para dizer como se regularia, o mecanismo ChatGPT disse que receberia “regulamentação responsável e ética”.

E pediu uma lei que “reconheça os benefícios potenciais da IA, ao mesmo tempo em que aborda os riscos e desafios potenciais”.

Artigos relacionados