The dangers of using proprietary LLMs for research - Ensai, Ecole Nationale de la Statistique et de l'Analyse de l'Information
Article Dans Une Revue Nature Machine Intelligence Année : 2024

The dangers of using proprietary LLMs for research

Résumé

The release of ChatGPT at the end of 2022 has thrust large language models (LLMs) into the limelight. In this paper, we discuss the merits and limits of using proprietary LLMs for (social) scientific research.

Mots clés

Fichier principal
Vignette du fichier
NMI_Resubmission_Nov30_2023.pdf (431.06 Ko) Télécharger le fichier
Origine Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-04825849 , version 1 (08-12-2024)

Identifiants

Citer

Étienne Ollion, Rubing Shen, Ana Macanovic, Arnault Chatelain. The dangers of using proprietary LLMs for research. Nature Machine Intelligence, 2024, 6 (1), pp.4-5. ⟨10.1038/s42256-023-00783-6⟩. ⟨hal-04825849⟩
0 Consultations
0 Téléchargements

Altmetric

Partager

More