药店
文档
临床药学
医学教育
药剂师
医疗保健
医学
计算机科学
家庭医学
经济增长
经济
程序设计语言
作者
A Fournier,Christine Fallet,Farshid Sadeghipour,Nancy Perrottet
标识
DOI:10.1016/j.pharma.2023.11.001
摘要
Clinical pharmacists rely on different scientific references to ensure appropriate, safe, and cost-effective drug use. Tools based on artificial intelligence (AI) such as ChatGPT (Generative Pre-trained Transformer) could offer valuable support. The objective of this study was to assess ChatGPT's capacity to correctly respond to clinical pharmacy questions asked by healthcare professionals in our university hospital. ChatGPT's capacity to respond correctly to the last 100 consecutive questions recorded in our clinical pharmacy database was assessed. Questions were copied from our FileMaker Pro database and pasted into ChatGPT March 14 version online platform. The generated answers were then copied verbatim into an Excel file. Two blinded clinical pharmacists reviewed all the questions and the answers given by the software. In case of disagreements, a third blinded pharmacist intervened to decide. Documentation-related issues (n = 36) and drug administration mode (n = 30) were preponderantly recorded. Among 69 applicable questions, the rate of correct answers varied from 30 to 57.1% depending on questions type with a global rate of 44.9%. Regarding inappropriate answers (n = 38), 20 were incorrect, 18 gave no answers and 8 were incomplete with 8 answers belonging to 2 different categories. No better answers than the pharmacists were observed. ChatGPT demonstrated a mitigated performance in answering clinical pharmacy questions. It should not replace human expertise as a high rate of inappropriate answers was highlighted. Future studies should focus on the optimization of ChatGPT for specific clinical pharmacy questions and explore the potential benefits and limitations of integrating this technology into clinical practice. Les pharmaciens cliniciens se basent sur différentes sources scientifiques pour garantir une utilisation appropriée, sûre et économique des médicaments. Les outils basés sur l'intelligence artificielle (IA) pourraient offrir un soutien précieux. L'objectif de cette étude était d'évaluer la capacité de ChatGPT (Generative Pre-trained Transformer) à répondre correctement aux questions de pharmacie clinique posées par les professionnels de la santé dans notre hôpital. La capacité de ChatGPT à répondre correctement aux 100 dernières questions enregistrées dans notre base de données de pharmacie clinique a été évaluée. Les questions ont été copiées depuis notre base de données FileMaker Pro et collées dans la plateforme en ligne de la version ChatGPT du 14 mars. Les réponses ont ensuite été copiées textuellement dans un fichier Excel. Les réponses ont été examinées par deux pharmaciens cliniciens, et un troisième, en cas de désaccord. Les problèmes liés à la documentation (n = 36) et au mode d'administration des médicaments (n = 30) ont été principalement enregistrés. Le taux de réponses correctes variait (30 à 57,1 %) selon le type de question, avec un taux global de 44,9 %. Parmi les réponses inappropriées (n = 38), 20 étaient incorrectes, 18 n'ont donné aucune réponse et 8 étaient incomplètes. ChatGPT a démontré une performance mitigée dans la réponse aux questions de pharmacie clinique. Il ne devrait pas remplacer l'expertise humaine en raison d'un taux élevé de réponses inappropriées. Les futures études devraient optimiser ChatGPT pour des questions spécifiques de pharmacie clinique et explorer son intégration potentielle dans la pratique clinique.
科研通智能强力驱动
Strongly Powered by AbleSci AI