[Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions

Background and objective: Generative artificial intelligence is a technology that provides greater connectivity with people through conversational bots (“chatbots”). These bots can engage in dialogue using natural language indistinguishable from humans and are a potential source of information for p...

Full description

Saved in:
Bibliographic Details
Main Authors: F. Canillas del Rey, M. Canillas Arias
Format: Article
Language:English
Published: Elsevier 2025-01-01
Series:Revista Española de Cirugía Ortopédica y Traumatología
Subjects:
Online Access:http://www.sciencedirect.com/science/article/pii/S1888441524001802
Tags: Add Tag
No Tags, Be the first to tag this record!
_version_ 1841553822795694080
author F. Canillas del Rey
M. Canillas Arias
author_facet F. Canillas del Rey
M. Canillas Arias
author_sort F. Canillas del Rey
collection DOAJ
description Background and objective: Generative artificial intelligence is a technology that provides greater connectivity with people through conversational bots (“chatbots”). These bots can engage in dialogue using natural language indistinguishable from humans and are a potential source of information for patients. The aim of this study is to examine the performance of these bots in solving specific issues related to orthopedic surgery and traumatology using questions from the Spanish MIR exam between 2008 and 2023. Material and methods: Three “chatbot” models (ChatGPT, Bard and Perplexity) were analyzed by answering 114 questions from the MIR. Their accuracy was compared, the readability of their responses was evaluated, and their dependence on logical reasoning and internal and external information was examined. The type of error was also evaluated in the failures. Results: ChatGPT obtained 72.81% correct answers, followed by Perplexity (67.54%) and Bard (60.53%). Bard provides the most readable and comprehensive responses. The responses demonstrated logical reasoning and the use of internal information from the question prompts. In 16 questions (14%), all three applications failed simultaneously. Errors were identified, including logical and information failures. Conclusions: While conversational bots can be useful in resolving medical questions, caution is advised due to the possibility of errors. Currently, they should be considered as a developing tool, and human opinion should prevail over generative artificial intelligence. Resumen: Antecedentes y objetivo: La inteligencia artificial generativa es una tecnología que ofrece su mayor conectividad con las personas gracias a los bots conversacionales («chatbot»). Estos pueden mantener un diálogo con un lenguaje natural indistinguible del humano y son una fuente potencial de información para los pacientes. El objetivo de este trabajo es estudiar el rendimiento de estos bots en la resolución de cuestiones específicas de cirugía ortopédica y traumatología empleando las preguntas del examen MIR español entre 2008 y 2023. Material y métodos: Se analizaron 3 modelos de «chatbots» (ChatGPT, Bard y Perplexity) respondiendo a 114 preguntas del MIR. Se compararon aciertos, se valoró la legibilidad de las respuestas y se examinó su dependencia con el razonamiento lógico y la información interna y externa. En los fallos también se evaluó el tipo de error. Resultados: ChatGPT obtuvo un 72,81% de aciertos, seguido por Perplexity (67,54%) y Bard (60,53%). Las respuestas más legibles y completas las ofrece Bard. Las respuestas demostraron un razonamiento lógico y el uso de información interna de los enunciados de preguntas. En 16 preguntas (14%) las 3 aplicaciones fallaron simultáneamente. Se identificaron errores, que incluían fallos lógicos y de información. Conclusiones: Aunque los bots conversacionales pueden ser útiles en la resolución de preguntas médicas, se señala la necesidad de precaución debido a la posibilidad de errores. Actualmente deben considerarse como una herramienta en desarrollo, y la opinión humana debe prevalecer sobre la inteligencia artificial generativa.
format Article
id doaj-art-732f42f94c9a4d2e8c46fca8bef9ea07
institution Kabale University
issn 1888-4415
language English
publishDate 2025-01-01
publisher Elsevier
record_format Article
series Revista Española de Cirugía Ortopédica y Traumatología
spelling doaj-art-732f42f94c9a4d2e8c46fca8bef9ea072025-01-09T06:13:41ZengElsevierRevista Española de Cirugía Ortopédica y Traumatología1888-44152025-01-01691T38T46[Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questionsF. Canillas del Rey0M. Canillas Arias1Servicio de Cirugía Ortopédica y Traumatología, Hospital Universitario Cruz Roja, Madrid, Spain; Facultad de Medicina, Universidad Alfonso X el Sabio, Madrid, Spain; Corresponding author.Facultad de Medicina, Universidad Alfonso X el Sabio, Madrid, SpainBackground and objective: Generative artificial intelligence is a technology that provides greater connectivity with people through conversational bots (“chatbots”). These bots can engage in dialogue using natural language indistinguishable from humans and are a potential source of information for patients. The aim of this study is to examine the performance of these bots in solving specific issues related to orthopedic surgery and traumatology using questions from the Spanish MIR exam between 2008 and 2023. Material and methods: Three “chatbot” models (ChatGPT, Bard and Perplexity) were analyzed by answering 114 questions from the MIR. Their accuracy was compared, the readability of their responses was evaluated, and their dependence on logical reasoning and internal and external information was examined. The type of error was also evaluated in the failures. Results: ChatGPT obtained 72.81% correct answers, followed by Perplexity (67.54%) and Bard (60.53%). Bard provides the most readable and comprehensive responses. The responses demonstrated logical reasoning and the use of internal information from the question prompts. In 16 questions (14%), all three applications failed simultaneously. Errors were identified, including logical and information failures. Conclusions: While conversational bots can be useful in resolving medical questions, caution is advised due to the possibility of errors. Currently, they should be considered as a developing tool, and human opinion should prevail over generative artificial intelligence. Resumen: Antecedentes y objetivo: La inteligencia artificial generativa es una tecnología que ofrece su mayor conectividad con las personas gracias a los bots conversacionales («chatbot»). Estos pueden mantener un diálogo con un lenguaje natural indistinguible del humano y son una fuente potencial de información para los pacientes. El objetivo de este trabajo es estudiar el rendimiento de estos bots en la resolución de cuestiones específicas de cirugía ortopédica y traumatología empleando las preguntas del examen MIR español entre 2008 y 2023. Material y métodos: Se analizaron 3 modelos de «chatbots» (ChatGPT, Bard y Perplexity) respondiendo a 114 preguntas del MIR. Se compararon aciertos, se valoró la legibilidad de las respuestas y se examinó su dependencia con el razonamiento lógico y la información interna y externa. En los fallos también se evaluó el tipo de error. Resultados: ChatGPT obtuvo un 72,81% de aciertos, seguido por Perplexity (67,54%) y Bard (60,53%). Las respuestas más legibles y completas las ofrece Bard. Las respuestas demostraron un razonamiento lógico y el uso de información interna de los enunciados de preguntas. En 16 preguntas (14%) las 3 aplicaciones fallaron simultáneamente. Se identificaron errores, que incluían fallos lógicos y de información. Conclusiones: Aunque los bots conversacionales pueden ser útiles en la resolución de preguntas médicas, se señala la necesidad de precaución debido a la posibilidad de errores. Actualmente deben considerarse como una herramienta en desarrollo, y la opinión humana debe prevalecer sobre la inteligencia artificial generativa.http://www.sciencedirect.com/science/article/pii/S1888441524001802Inteligencia artificial generativaRobot conversacionalRespuesta a preguntas de opción múltipleChatGPTBardPerplexity
spellingShingle F. Canillas del Rey
M. Canillas Arias
[Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
Revista Española de Cirugía Ortopédica y Traumatología
Inteligencia artificial generativa
Robot conversacional
Respuesta a preguntas de opción múltiple
ChatGPT
Bard
Perplexity
title [Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
title_full [Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
title_fullStr [Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
title_full_unstemmed [Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
title_short [Translated article] Exploring the potential of artificial intelligence in traumatology: Conversational answers to specific questions
title_sort translated article exploring the potential of artificial intelligence in traumatology conversational answers to specific questions
topic Inteligencia artificial generativa
Robot conversacional
Respuesta a preguntas de opción múltiple
ChatGPT
Bard
Perplexity
url http://www.sciencedirect.com/science/article/pii/S1888441524001802
work_keys_str_mv AT fcanillasdelrey translatedarticleexploringthepotentialofartificialintelligenceintraumatologyconversationalanswerstospecificquestions
AT mcanillasarias translatedarticleexploringthepotentialofartificialintelligenceintraumatologyconversationalanswerstospecificquestions