Na quarta-feira (31), a OpenAI anunciou que tenta solucionar as alucinações do ChatGPT com um novo método de treinamento de inteligências artificiais. A empresa quer reduzir as chances de o chatbot apresentar informações erradas ao mencionar fatos sobre os quais não tem tanta certeza.
“Mesmo modelos de última geração são propensos a produzir falsidades — eles exibem uma tendência a inventar fatos em momentos de incerteza”, explicou a OpenAI em relatório obtido pelo CNBC. “Essas alucinações são particularmente problemáticas em domínios que exigem raciocínio em várias etapas, já que um único erro lógico é suficiente para inviabilizar uma solução muito maior”.
Fonte: O novo método de treinamento da OpenAI fará o ChatGPT raciocinar de forma similar a um humano (Imagem: Rolf van Root/Unsplash)
As “alucinações” de inteligências artificiais são quando elas erram ou inventam informações sem fundamento. Em perguntas superficiais e com respostas diretas, isso acontece com menos frequência, mas quanto mais profunda for a conversa, maior a chance de o bot entregar dados sem lastro.
Exemplo disso foi quando um advogado nos Estados Unidos usou o ChatGPT para compor um processo contra a companhia aérea Avianca. No texto, o chatbot entregou informações sobre precedentes jurídicos que nunca aconteceram, e até confirmou a veracidade deles ao ser questionado.
Nova estratégia
De acordo com o comunicado da OpenAI, o novo método de treinamento de inteligências artificiais dará mais liberdade para o modelo se recompensar por acertar respostas. A cada etapa da formação de uma saída, o GPT vai avaliar se segue o caminho correto, aumentando as chances de entregar informações precisas.
A novidade se chama “Supervisão de processo” e, segundo a empresa, pode gerar modelos com respostas mais robustas e fundamentadas, já que encoraja a máquina a seguir cadeias de raciocínio mais humanas.
“Detectar e mitigar os erros lógicos de um modelo, ou alucinações, é um passo crítico para a construção de AGI (inteligência artificial geral) alinhada”, pontuou o pesquisador de matemática da OpenAI, Karl Cobbe, ao canal CNBC.
Novo treinamento não resolve tudo
Ainda que o novo fluxo de raciocínio possa diminuir a frequência com que o ChatGPT alucina, ele não deve tornar a IA perfeita, segundo o especialista em IA membro da Electronic Privacy Information Center, Ben Winters. “Eu simplesmente não acho que isso sozinho reduzirá significativamente as preocupações sobre desinformação e resultados incorretos”, pontuou ao CNBC.
“Sem dúvida importa se eles planejam implementar tudo o que descobriram por meio de suas pesquisas aqui e, se não o fizerem, isso traz algumas questões bastante sérias sobre o que estão dispostos a divulgar ao público”, considerou Winters.
IA não deve ser usada para substituir humanos
De toda forma, chatbots como o ChatGPT não devem ser utilizados para substituir o raciocínio humano, especialmente no ambiente de trabalho. O uso de ferramentas com IA pode agilizar a conclusão de tarefas rotineiras, mas coloca os dados da empresa em risco e, se adotado em contextos mais delicados, pode render multa ao responsável.
Fonte: CNBC
Fonte:
https://canaltech.com.br/inteligencia-artificial/openai-quer-chatgpt-mais-humano-para-alucinar-menos-251466/