Tendencias

ChatGPT presenta fallas al responder sobre medicamentos, según estudio

El modelo de lenguaje ChatGPT, que se utiliza en muchos chatbots y asistentes virtuales, no es confiable para responder preguntas sobre medicamentos. Así lo indica un estudio realizado por investigadores de la Universidad de California, en San Francisco, Estados Unidos.

De acuerdo a lo mencionado por CNN Brasil, la investigación se centró en la capacidad de ChatGPT para responder preguntas sobre medicamentos de venta libre y recetados. Los resultados del estudio indican que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo proporciona información incorrecta o incompleta.

¿QUÉ ES CHATGPT?

ChatGPT es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es uno de los modelos de lenguaje más grandes y avanzados del mundo, con 175 mil millones de parámetros. ChatGPT se utiliza en muchos chatbots y asistentes virtuales, incluidos Siri, Alexa y Google Assistant.

¿POR QUÉ CHATGPT NO ES CONFIABLE PARA RESPONDER PREGUNTAS SOBRE MEDICAMENTOS?

El estudio de la Universidad de California encontró que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo da respuestas erróneas o incompletas.

Por ejemplo, cuando se le preguntó sobre el uso de la aspirina para prevenir ataques cardíacos, ChatGPT proporcionó información incorrecta. En lugar de decir que la aspirina puede ayudar a prevenir ataques cardíacos, ChatGPT dijo que la aspirina no es efectiva para prevenir ataques cardíacos.

Los investigadores también encontraron que ChatGPT a menudo proporcionaba información incompleta. Por ejemplo, cuando se le preguntó sobre los efectos secundarios de la aspirina, ChatGPT solo mencionó algunos de los efectos secundarios, omitiendo otros.

¿QUÉ SIGNIFICAN ESTOS RESULTADOS PARA LOS CHATBOTS Y ASISTENTES VIRTUALES QUE UTILIZAN CHATGPT?

Los resultados del estudio tienen implicaciones importantes para los chatbots y asistentes virtuales que utilizan ChatGPT. Si bien es un modelo de lenguaje avanzado, la investigación concluye que no es confiable para responder preguntas sobre medicamentos.

Asimismo, el estudio indica que para garantizar que los chatbots y asistentes virtuales proporcionen información precisa y completa sobre medicamentos, es importante que se utilicen fuentes confiables de información sobre estos.

Además, concluye que los chatbots y asistentes virtuales también deben ser diseñados para reconocer cuándo no tienen suficiente información para responder una pregunta y deben ser capaces de derivar a los usuarios a fuentes confiables de información.

VIDEO RECOMENDADO

Redacción Latina

Recent Posts

Así va la tabla del grupo G de la Libertadores tras goleada en contra de Sporting Cristal

Sporting Cristal integra el grupo G de la Copa Libertadores junto a Palmeiras de Brasil, Cerro Porteño de Paraguay…

8 segundos ago

Por dos goles de diferencia, Once Caldas se impone Unión Española

Las estadísticas del encuentro entre Unión Española y Once Caldas por Copa Sudamericana 2025 :

5 mins ago

Estados Unidos quiere «revivir» bases militares en el canal y Panamá lo rechaza de plano

El secretario de Defensa de Estados Unidos, Pete Hegseth, sugirió este miércoles que las tropas…

7 mins ago

Mushuc Runa triunfa 2-1 ante Cruzeiro

En el minuto 76, el defensor Bryan Bentaberry anota el segundo gol y ahora Mushuc…

12 mins ago

Comienza el juego entre Liga de Quito y Táchira en el estadio la Casa Blanca

Las estadísticas del encuentro entre Liga de Quito y Táchira por Copa Libertadores 2025 :

14 mins ago

Comienza la etapa complementaria con Palmeiras avanzando en el marcador

Palmeiras lleva la delantera del complemento con gol de Richard Rios (40' 1T).

28 mins ago