Using Language Models For Knowledge Acquisition in Natural Language Reasoning Problems

Auteurs : Fangzhen Lin, Ziyi Shou, Chengcai Chen

Résumé : For a natural language problem that requires some non-trivial reasoning to solve, there are at least two ways to do it using a large language model (LLM). One is to ask it to solve it directly. The other is to use it to extract the facts from the problem text and then use a theorem prover to solve it. In this note, we compare the two methods using ChatGPT and GPT4 on a series of logic word puzzles, and conclude that the latter is the right approach.

Soumis à arXiv le 04 Avr. 2023

Explorez l'arbre d'article

Cliquez sur les nœuds de l'arborescence pour être redirigé vers un article donné et accéder à leurs résumés et assistant virtuel

Accédez également à nos Résumés, ou posez des questions sur cet article à notre Assistant IA.
Fangzhen Lin et al.Sébastien Bubeck et al.Yongliang Shen et al.Md Kamrul Hasan et al.Zichen Chen et al.Zhenwei Shao et al.Matteo EscudéTyna Eloundou et al.Christopher McMaster et al.Minae Kwon et al.Yaobo Liang et al.William Saunders et al.Lucas Valentin

Recherchez des articles similaires (en version bêta)

En cliquant sur le bouton ci-dessus, notre algorithme analysera tous les articles de notre base de données pour trouver le plus proche en fonction du contenu des articles complets et pas seulement des métadonnées. Veuillez noter que cela ne fonctionne que pour les articles pour lesquels nous avons généré des résumés et que vous pouvez le réexécuter de temps en temps pour obtenir un résultat plus précis pendant que notre base de données s'agrandit.