Nos últimos meses, pelo menos duas cartas pedindo cuidado ou interrupção temporária do desenvolvimento de inteligências artificiais vieram a público. Todas foram assinadas por pessoas envolvidas diretamente na indústria de IA. O que mais chama a atenção é que, apesar do alarde, nada foi feito.
Com signatários do calibre de Yuval Harari, do livro ” Sapiens: Uma breve história da humanidade”, o cofundador da Apple Steve Wozniak e o bilionário Elon Musk, o instituto Future Of Life falou que o “desenvolvimento de IA deve ser interrompido até que haja protocolos de segurança”.
Assinada por Sam Altman, CEO da OpenAI (criadora do ChatGPT), e Demis Hassabis, CEO da Google DeepMind, braço de inteligência artificial do Google, a carta mais recente se resumia a uma frase:
“Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear”
Nem se pode dizer que nada aconteceu após a primeira missiva, já que há relatos de que Musk comprou 10 mil placas gráficas para criar seu próprio chatbot à la ChatGPT. Enquanto isso, Google e OpenAI continuam desenvolvendo soluções.
O que está por trás desse alarmismo?
Que a inteligência artificial é poderosa, ninguém duvida. Porém chama a atenção que os desenvolvedores da tecnologia têm deixado claras suas preocupações para o futuro, como se a IA que eles estão trabalhando pudesse ter consequências que nem eles sabem mensurar direito.
Um dos casos que mais chama a atenção é o de Altman, da OpenAI. Ao mesmo tempo que fala da necessidade de regulação e dos perigos da IA, ele ameaçou que poderia deixar a Europa se a lei para regular o tema fosse aprovada – no dia seguinte, afirmou que não havia intenção de deixar a região, após ter, aparentemente, exagerado na dose.
O comportamento errático, somado a essas cartas catastróficas, joga o problema para frente — um cenário apocalíptico — e deixa de lado questionamentos mais imediatos, que nos afetam aqui e agora. Ou seja, deixam sem respostas perguntas como:
* Como foi feito o treinamento dos chatbots?
* Os resultados são enviesados?
* De onde as empresas tiraram textos e vídeos para treino das ferramentas?
* Vão pagar os donos dos conteúdos, ainda mais agora que geram serviços pagos?
* Quais áreas podem ter perda de emprego no curto prazo? É possível treinar essas pessoas para novas ocupações relacionadas?
* Se há medo de uso de IA para a extinção humana, que tal proibir a utilização em contextos de conflito?
Isso quer dizer que eles mentem sobre os perigos da inteligência artificial? Não. Empregos devem ser perdidos mesmo e, eventualmente, a IA pode ser usada em uma guerra. Máquinas não têm empatia e se são ordenadas a fazer algo, com certeza farão, se puderem.
O problema é a aparente incoerência de ver quem desenvolve a tecnologia avisar dos terríveis perigos de uma colisão de trem e, ao mesmo tempo, jogar mais carvão na fogueira para acelerar a velocidade da locomotiva.
Ao manter a preocupação para um cenário posterior — que mal existe —, os responsáveis pelas inteligências artificiais acabam direcionando o foco, decidindo qual aspecto de sua tecnologia é a conversa da vez.
A impressão é que eles estão tentando acelerar ao máximo o desenvolvimento enquanto não existe regulação para, quando as leis surgirem, argumentarem que “não dá mais para voltar atrás”.
** Este texto não reflete, necessariamente, a opinião do UOL
Fonte:
https://www.uol.com.br/tilt/noticias/redacao/2023/06/06/cartas-risco-ia.htm