Tutoriels

Les préoccupations soulevées par ChatGPT quant à l’infodémie générée par l’IA dans la santé publique 2023

Les Préoccupations Soulevées Par Chatgpt Quant À L'Infodémie Générée Par L'Ia Dans La Santé Publique

Introduction

L’Intelligence Artificielle (IA) est en constante évolution et son développement récent, ChatGPT, suscite des préoccupations quant à l’infodémie générée dans le domaine de la santé publique. Cet article examine les implications de ChatGPT et met en évidence les risques potentiels d’une infodémie générée par l’IA dans la santé publique. Il explore également les mesures prises pour atténuer ces risques et souligne l’importance d’une utilisation responsable de ChatGPT dans la recherche médicale. Cet article fournit un aperçu des LLM (Large Language Models) et de leur évolution, ainsi que des précautions nécessaires pour faire face à l’émergence de l’infodémie.

Évolution des LLM

Au cours des cinq dernières années, une croissance exponentielle des LLM a été observée, permettant l’exécution de diverses tâches. Cependant, avant 2017, la plupart des modèles de traitement du langage naturel (NLP) étaient entraînés pour une tâche spécifique. Cette limitation a été surmontée grâce au développement de l’architecture du réseau d’auto-attention, également connue sous le nom de Transformer. En 2018, ce concept a été utilisé pour développer deux modèles révolutionnaires, à savoir Generative Pretrained Transformer (GPT) et Bidirectional Encoder Representations from Transformers (BERT).

Pour obtenir des capacités de généralisation dans BERT et GPT, une combinaison d’ajustement fin supervisé et de pré-entraînement non supervisé a été utilisée. Cette approche a permis l’application de représentations linguistiques pré-entraînées pour exécuter des tâches ultérieures.

Les modèles GPT ont évolué rapidement, et de nombreuses versions ont été lancées. Les versions améliorées contiennent de grandes quantités de données textuelles et de paramètres. Par exemple, la troisième version de GPT (GPT-3) est 100 fois plus grande que GPT-2 et comprend 175 milliards de paramètres. Bien que GPT-3 puisse générer des textes couvrant un large éventail de domaines, il produit souvent des textes biaisés contenant des informations incorrectes. Cela est dû au fait que de nombreux LLM, y compris GPT-3, reproduisent les biais présents dans les données disponibles sur Internet. Il était donc essentiel de concevoir des LLM en adéquation avec les valeurs humaines et les principes éthiques.

ChatGPT et les menaces d’infodémie dans la santé publique

ChatGPT peut être utilisé par les chercheurs pour rédiger d’importants articles scientifiques. Par exemple, cet outil peut suggérer des titres pertinents pour les articles de recherche, rédiger des brouillons et exprimer des concepts scientifiques complexes de manière simple et grammaticalement correcte en anglais. L’intérêt élevé suscité par ChatGPT au sein de la communauté scientifique est illustré par l’augmentation rapide du nombre d’articles de recherche sur cet outil.

Cependant, l’article met en évidence la possibilité de tromper les LLM pour produire du texte sur des sujets controversés ou du contenu erroné. Les LLM sont capables de produire des textes similaires à ceux rédigés par des humains. Cette capacité peut être exploitée pour créer des articles de fausses nouvelles et du contenu fabriqué ou trompeur, sans que l’utilisateur ne se rende compte que le contenu est généré par une IA.

Récemment, certains auteurs ont souligné la nécessité de détecteurs de LLM capables d’identifier les fausses informations. Les détecteurs actuels pour le modèle GPT-2 ne sont pas fiables pour détecter les textes rédigés par une IA lorsque ceux-ci sont générés par ChatGPT. Il est donc indispensable d’améliorer ces détecteurs en fonction de l’avancement rapide des LLM afin de contrer les intentions malveillantes.

Mesures préventives et précautions

En raison du manque de détecteurs précis, certaines mesures préventives doivent être suivies. Par exemple, la Conférence internationale sur l’apprentissage automatique (ICML) de 2023 a interdit l’utilisation de LLM dans les brouillons soumis. Cependant, aucun outil n’est actuellement disponible pour vérifier le respect de cette règle.

De nombreux journaux scientifiques ont mis à jour leurs directives pour les auteurs. Par exemple, les revues Springer Nature ont ajouté que les LLM ne peuvent pas être répertoriés en tant qu’auteurs et leur utilisation doit être mentionnée dans les méthodes ou les sections de remerciements. Ces directives mises à jour ont également été mises en œuvre par Elsevier.

ChatGPT peut être détourné pour générer de faux résumés scientifiques, des articles et des bibliographies. Dans ce cas, un système d’identification numérique des objets (DOI) pourrait être utilisé pour détecter avec précision les fausses références. Les scientifiques ont souligné que des années de recherche sont nécessaires pour valider une découverte en médecine avant qu’elle puisse être utilisée cliniquement. Par conséquent, les informations fausses générées par les outils d’IA peuvent mettre en danger la sécurité des personnes.

Conclusion

L’émergence de ChatGPT et d’autres LLM soulève des préoccupations légitimes quant à l’infodémie générée par l’IA dans le domaine de la santé publique. Bien que ces outils offrent des avantages indéniables, il est essentiel de les utiliser de manière responsable et éthique. Les détecteurs précis doivent être développés pour contrer les fausses informations générées par les LLM, et les mesures préventives doivent être mises en place pour garantir une utilisation transparente et réglementée de ces outils dans la recherche médicale. En travaillant ensemble, la communauté scientifique et les développeurs d’IA peuvent faire face à ces défis et promouvoir une utilisation sûre et fiable de la technologie de l’IA dans le domaine de la santé publique.

Pour plus d’article : https://www.moussasoft.com/tutoriels-electroniques

Twitter: Moussa Lhoussaine (@Moussasoft_com) / Twitter