Stephen Wolfram, um pioneiro da computação, explica-nos num pequeno livrinho (na foto) como é o que o ChatGPT se tornou «uma forma de inteligência capaz de escrever com um estilo tão semelhante a humanos, de uma maneira tão convincente.», coisa que «ninguém previa – nem mesmo os seus criadores». [notas da contracapa]
O ChatGPT baseia-se «no conceito de redes neuronais – concebido nos anos 40 como uma idealização do modo de funcionamento dos cérebros» (p 11) e consiste num «modelo de linguagem desenvolvido pela OpenAI que utiliza inteligência artificial para gerar respostas em linguagem natural a partir de perguntas ou entradas de texto. Ele é projetado para fornecer assistência e informações de uma ampla variedade de tópicos, com base no seu treinamento em textos da internet.» Esta é a resposta do próprio à pergunta: «O que é o ChatGPT, em três linhas».
O mais extraordinário é que quando o ChatGPT escreve um ensaio, o que ele faz, «essencialmente, é perguntar-se repetidamente “dado o texto até este momento, qual deverá ser a próxima palavra?” e adiciona uma palavra de cada vez.» (p.14) Isto significa que este programa fabuloso funciona com base em… estatística. Naturalmente, para que isso aconteça com sucesso é preciso definir uma série de parâmetros que escapam ao leigo, que pasma, ante o facto de o ChatGPT escolher «sempre a próxima palavra com base em probabilidades». (p.19)
O treino nas redes neuronais tenta que elas consigam «reproduzir com sucesso os exemplos que lhes damos. E depois confiamos que consiga[m] generalizar de entre esses exemplos de forma “razoável”.» (p. 44)
Este treino das redes neuronais é «basicamente uma arte. […] Na maioria dos casos, as coisas foram descobertas por tentativa e erro» (p. 51). […] «Os exemplos podem ser muito repetitivos. E, de facto, é uma estratégia padrão mostrar a uma rede neuronal todos os exemplos que tenhamos, vezes sem conta. […] De alguma forma [isto é] análogo à utilidade da repetição na memória humana. E é também necessário mostrar à rede neuronal variações do mesmo exemplo» (p. 56). O funcionamento do ChatGPT resulta «de um treino […] baseado num corpus de texto gigante – na internet, livros, etc., escrito por humanos.» […] Depois, usando peças de engenharia precisas, o ChatGPT consegue «produzir texto semelhante a humanos». (p. 85)
Para além do treino é importante «ter humanos a interagir ativamente com o ChatGPT, […] e dar-lhe feedback.» (p. 89)
Mas o ChatGPT não faz computação, o que «significa que nunca podemos garantir que o inesperado não aconteça» (p. 62). Na realidade, «o ChatGPT não diz sempre coisas que façam sentido. Ele apenas diz coisas que lhe pareçam corretas baseadas nas coisas que pareciam corretas no seu material de treino». (p. 112) O que produz é sempre estatisticamente plausível […], mas isso não significa que o que apresenta com confiança esteja necessariamente correto» (p. 120).
Espantosamente, «tal como não sabemos o que se passa dentro do cérebro humano, na verdade não sabemos o que se passa lá dentro [do ChatGPT] (p. 80). Só que funciona! Sem que conheçamos «nenhuma razão teórica fundamental para que algo assim funcione.»! (p. 84)
Uma área onde o Chat GPT tende a ter dificuldades, como os humanos, é na matemática.» (p. 123). O ChatGPT talvez funcione bem 95% das vezes. […] E, «por mais que se tente, os outros 5% continuam difíceis de alcançar». (p. 135)
Quer dizer: «o ChatGPT – como os humanos – é ótimo onde não é preciso uma “resposta certa”. Quando é “posto à prova” para responder a algo preciso falha muitas vezes. A forma de resolver o problema é conectá-lo aos “superpoderes” dos programas de conhecimento computacional preciso.» Porém, ainda não há «certeza de como isto vai funcionar». (p 138)
Lá chegaremos.
José Batista d’Ascenção
Sem comentários :
Enviar um comentário