NegóciosTecnologia

Pesquisadores de Stanford desenvolvem bot semelhante ao ChatGPT para pesquisa acadêmica

Cientistas dizem que seu chatbot Alpaca é apenas para pesquisa acadêmica e não para uso geral, em um futuro próximo

Pesquisadores de inteligência artificial (IA) da Universidade de Stanford desenvolveram sua demonstração de chatbot Alpaca semelhante ao ChatGPT em menos de dois meses, mas a encerraram citando “custos de hospedagem e inadequações de filtros de conteúdo” no comportamento do modelo de linguagem grande (LLM).

O anúncio da rescisão foi feito menos de uma semana após o lançamento, de acordo com o Stanford Daily .

O código-fonte do modelo ChatGPT de Stanford — desenvolvido por menos de US$ 600 — está disponível publicamente.

Segundo os pesquisadores, seu modelo de chatbot teve um desempenho semelhante ao ChatGPT 3.5 da OpenAI.

Os cientistas em seu anúncio disseram que seu chatbot Alpaca é apenas para pesquisa acadêmica e não para uso geral, em um futuro próximo.

O pesquisador da Alpaca, Tatsunori Hashimoto, do Departamento de Ciência da Computação, disse: “Achamos que o trabalho interessante é desenvolver métodos sobre a Alpaca [uma vez que o próprio conjunto de dados é apenas uma combinação de ideias conhecidas], então não temos planos atuais ao longo das linhas de criar mais conjuntos de dados do mesmo tipo ou ampliar o modelo”,

O Alpaca foi desenvolvido no modelo LLaMA 7B da Meta AI e gerou dados de treinamento com o método conhecido como autoinstrução.

O professor adjunto Douwe Kiela observou que “assim que o modelo LLaMA foi lançado, a corrida começou”.

Kiela, que também trabalhou como pesquisadora de IA no Facebook, disse que “Alguém seria o primeiro a ajustar o modelo com instruções e, portanto, a equipe da Alpaca foi a primeira … e essa é uma das razões pelas quais se tornou viral.”

“É uma ideia muito, muito legal e simples, e eles executaram muito bem.”

Hashimoto disse que o “modelo base LLaMA é treinado para prever a próxima palavra nos dados da Internet e que o ajuste fino de instruções modifica o modelo para preferir conclusões que seguem instruções sobre aquelas que não”.

O código-fonte do Alpaca está disponível no GitHub — uma plataforma de compartilhamento de código-fonte — e foi visualizado 17.500 vezes. Mais de 2.400 pessoas usaram o código para seu próprio modelo.

“Acho que muito do desempenho observado do Alpaca vem do LLaMA e, portanto, o modelo de linguagem base ainda é um gargalo importante”, afirmou Hashimoto.

Como o uso de sistemas de inteligência artificial aumenta a cada dia, cientistas e especialistas debatem sobre a publicação do código-fonte, dados usados ​​pelas empresas e seus métodos para treinar seus modelos de IA e a transparência geral da tecnologia.

Ele era da opinião de que “acho que uma das maneiras mais seguras de avançar com essa tecnologia é garantir que ela não caia em poucas mãos”.

“Precisamos de lugares como Stanford, fazendo pesquisas de ponta sobre esses grandes modelos de linguagem ao ar livre. Então, achei muito encorajador que Stanford ainda seja um dos grandes players nesse grande espaço de modelo de linguagem”, observou Kiela .

Artigos relacionados