Ainda na sequência do post anterior, de título “ChatGPT na UMinho e o que podem ensinar as universidades num futuro sem empregos“, acessível no link supra, sou por este meio a divulgar abaixo o extracto do resumo de um recente artigo, de investigadores da Microsoft, sobre as elevadas capacidades da versão GPT-4, na resolução de desafios médicos:
“GPT-4 is significantly better calibrated than GPT-3.5, demonstrating a much-improved ability to predict the likelihood that its answers are correct. We also explore the behavior of the model qualitatively by presenting a case study that shows the ability of GPT-4 to explain medical reasoning, personalize explanations to students, and interactively craft new counterfactual scenarios around a medical case. Implications of the findings are discussed for potential uses of GPT-4 in medical education, assessment, and clinical practice…” https://www.microsoft.com/en-us/research/uploads/prod/2023/03/GPT-4_medical_benchmarks.pdf
Muito mais interessante é porém o também recente artigo, de 17 investigadores, da China e da Coreia, baseado em mais de 500 referências bibliográficas, que evidencia o potencial do GPT-4 e do seu futuro sucessor GPT-5. https://arxiv.org/pdf/2303.11717.pdf O referido artigo apresenta porém uma importante lacuna, já que entre as milhares de palavras que enchem as quase 56 páginas do mesmo, nem uma única vez se encontra a palavra “desinformaçáo“, que em breve se pode tornar infinita, como foi afirmado, por uma responsável de um observatório da Universidade de Stanford, na página 16 do último número da conhecida revista The Economist, num artigo com um título nada modesto https://www.economist.com/essay/2023/04/20/how-ai-could-change-computing-culture-and-the-course-of-history