Tendencias

ChatGPT presenta fallas al responder sobre medicamentos, según estudio

El modelo de lenguaje ChatGPT, que se utiliza en muchos chatbots y asistentes virtuales, no es confiable para responder preguntas sobre medicamentos. Así lo indica un estudio realizado por investigadores de la Universidad de California, en San Francisco, Estados Unidos.

De acuerdo a lo mencionado por CNN Brasil, la investigación se centró en la capacidad de ChatGPT para responder preguntas sobre medicamentos de venta libre y recetados. Los resultados del estudio indican que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo proporciona información incorrecta o incompleta.

¿QUÉ ES CHATGPT?

ChatGPT es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es uno de los modelos de lenguaje más grandes y avanzados del mundo, con 175 mil millones de parámetros. ChatGPT se utiliza en muchos chatbots y asistentes virtuales, incluidos Siri, Alexa y Google Assistant.

¿POR QUÉ CHATGPT NO ES CONFIABLE PARA RESPONDER PREGUNTAS SOBRE MEDICAMENTOS?

El estudio de la Universidad de California encontró que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo da respuestas erróneas o incompletas.

Por ejemplo, cuando se le preguntó sobre el uso de la aspirina para prevenir ataques cardíacos, ChatGPT proporcionó información incorrecta. En lugar de decir que la aspirina puede ayudar a prevenir ataques cardíacos, ChatGPT dijo que la aspirina no es efectiva para prevenir ataques cardíacos.

Los investigadores también encontraron que ChatGPT a menudo proporcionaba información incompleta. Por ejemplo, cuando se le preguntó sobre los efectos secundarios de la aspirina, ChatGPT solo mencionó algunos de los efectos secundarios, omitiendo otros.

¿QUÉ SIGNIFICAN ESTOS RESULTADOS PARA LOS CHATBOTS Y ASISTENTES VIRTUALES QUE UTILIZAN CHATGPT?

Los resultados del estudio tienen implicaciones importantes para los chatbots y asistentes virtuales que utilizan ChatGPT. Si bien es un modelo de lenguaje avanzado, la investigación concluye que no es confiable para responder preguntas sobre medicamentos.

Asimismo, el estudio indica que para garantizar que los chatbots y asistentes virtuales proporcionen información precisa y completa sobre medicamentos, es importante que se utilicen fuentes confiables de información sobre estos.

Además, concluye que los chatbots y asistentes virtuales también deben ser diseñados para reconocer cuándo no tienen suficiente información para responder una pregunta y deben ser capaces de derivar a los usuarios a fuentes confiables de información.

VIDEO RECOMENDADO

Redacción Latina

Recent Posts

Con dos anotaciones, Getafe vence Valladolid

El Geta derrota a los Pucelanos por 2 a 0. Los autores de la victoria…

9 mins ago

Bayern Múnich aplastó Augsburg con hat-trick de Harry Kane

En la fecha 11 de Bundesliga 2024-2025, B. Múnich consiguió los tres puntos al golear…

13 mins ago

Dina Boluarte HOY: agenda de actividades y reuniones de este 22 de noviembre en Palacio de Gobierno

Durante este viernes 22 de noviembre, la presidenta Dina Boluarte tuvo actividades públicas. Esto puede…

18 mins ago

#LatinaSuma: Startup busca reducir el acoso sexual en centros de trabajo

Como parte del compromiso de #LatinaSuma, en nuestro programa digital Buenas Nuevas, Malas Nuevas, Marta Ortega, Chief…

24 mins ago

Yahaira Plasencia: así reaccionó al ser consultada por supuesto romance con Sergio George

Recientemente, la reconocida salsera Yahaira Plasencia fue consultada sobre los rumores que sugieren un posible…

34 mins ago

¡Arranca la etapa complementaria! PSG lleva la ventaja con un marcador 1-0 sobre Toulouse

Hasta el momento el triunfo parcial en el complemento se lo lleva PSG.

39 mins ago