Ele apresentou um processo judicial federal que citava pelo menos seis casos que não existiam
Um advogado que representa um homem em um processo de danos pessoais em Manhattan se colocou à mercê do tribunal. O que ele fez de errado? Apresentou um processo judicial federal que citava pelo menos seis casos que não existiam. Infelizmente, o advogado usou o ChatGPT, que inventou tudo.
Steven A. Schwartz representa um cliente que está processando a Avianca Airlines depois que um carrinho de serviço supostamente atingiu seu joelho em 2019. Schwartz disse que nunca havia usado o ChatGPT antes e não tinha ideia de que a ferramenta apenas inventaria casos.
Na verdade, o advogado disse que até perguntou ao ChatGPT se os casos eram reais. O chatbot insistiu que sim. Mas foi somente depois que os advogados da companhia aérea apontaram em um novo processo que eles não existiam que Schwartz descobriu seu erro. (Ou, o erro da IA)
O juiz do caso, P. Kevin Castel, está realizando uma audiência em 8 de junho sobre o que fazer nessa confusão, de acordo com o New York Times. Mas, desnecessário dizer que o juiz não está feliz.
O ChatGPT foi lançado no final de 2022 e instantaneamente se tornou um sucesso. O chatbot faz parte de uma família de novas tecnologias baseadas em IA generativa que pode manter conversas com usuários por horas a fio. As conversas parecem tão orgânicas e normais que às vezes o ChatGPT parece ter vontade própria. Mas a tecnologia é notoriamente imprecisa e muitas vezes apenas inventa fatos e fontes. O Bard, produto concorrente do Google, tem problemas semelhantes.
Mas nenhum desses problemas impediu as pessoas de usar a tecnologia experimental como se fosse uma fonte confiável de informação. Existem inúmeros relatos de crianças fazendo com que o ChatGPT escreva redações e também muitos relatos de professores pensando que podem simplesmente perguntar ao ChatGPT se um artigo foi feito por ele. A OpenAI, a empresa por trás do ChatGPT, oferece um serviço que tenta detectar quando o chatbot foi usado, mas esse detector tem apenas uma taxa de precisão de 20%. E se você apenas alimentar parágrafos aleatórios do ChatGPT, a IA não poderá dizer se os escreveu.
Chatbots como o ChatGPT são controversos por vários motivos, incluindo o fato de alguns especialistas em tecnologia temerem que a IA possa sair do controle. Algumas pessoas até acreditam que a IA pode começar a ter vontade própria, desencadeando uma espécie de cenário semelhante ao Exterminador do Futuro , em que a humanidade é completamente destruída . O bilionário Elon Musk sugeriu essa possibilidade quando recentemente pediu uma pausa de seis meses no desenvolvimento da IA – que provavelmente tinha mais a ver com o fato de que ele estava correndo para construir seu próprio concorrente do ChatGPT . Afinal, Musk foi um dos cofundadores originais da OpenAI em 2015, antes de ser expulso depois de tentar assumir o controle da empresa em 2018.
No entanto, ainda não estamos perto de as máquinas organizarem uma revolta contra toda a vida orgânica. Chatbots como o ChatGPT são essencialmente apenas formas mais avançadas de texto preditivo. Eles trabalham tentando adivinhar com incrível velocidade o que ele deve dizer, e essa velocidade geralmente faz com que ele seja impreciso.
O perigo da IA pode não estar em uma tecnologia que desenvolve vontade própria. O perigo real, ao que parece, é que os humanos simplesmente acreditarão em qualquer coisa que as máquinas digam, não importa o quão errado seja. O ChatGPT não sabe que está fornecendo informações imprecisas. Portanto, cabe a nós verificar os fatos e nos preocupar em acertar as coisas.
Fonte:
https://forbes.com.br/forbes-tech/2023/05/advogado-americano-usa-chatgpt-em-tribunal-e-da-tudo-errado/