Tendencias

ChatGPT presenta fallas al responder sobre medicamentos, según estudio

El modelo de lenguaje ChatGPT, que se utiliza en muchos chatbots y asistentes virtuales, no es confiable para responder preguntas sobre medicamentos. Así lo indica un estudio realizado por investigadores de la Universidad de California, en San Francisco, Estados Unidos.

De acuerdo a lo mencionado por CNN Brasil, la investigación se centró en la capacidad de ChatGPT para responder preguntas sobre medicamentos de venta libre y recetados. Los resultados del estudio indican que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo proporciona información incorrecta o incompleta.

¿QUÉ ES CHATGPT?

ChatGPT es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es uno de los modelos de lenguaje más grandes y avanzados del mundo, con 175 mil millones de parámetros. ChatGPT se utiliza en muchos chatbots y asistentes virtuales, incluidos Siri, Alexa y Google Assistant.

¿POR QUÉ CHATGPT NO ES CONFIABLE PARA RESPONDER PREGUNTAS SOBRE MEDICAMENTOS?

El estudio de la Universidad de California encontró que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo da respuestas erróneas o incompletas.

Por ejemplo, cuando se le preguntó sobre el uso de la aspirina para prevenir ataques cardíacos, ChatGPT proporcionó información incorrecta. En lugar de decir que la aspirina puede ayudar a prevenir ataques cardíacos, ChatGPT dijo que la aspirina no es efectiva para prevenir ataques cardíacos.

Los investigadores también encontraron que ChatGPT a menudo proporcionaba información incompleta. Por ejemplo, cuando se le preguntó sobre los efectos secundarios de la aspirina, ChatGPT solo mencionó algunos de los efectos secundarios, omitiendo otros.

¿QUÉ SIGNIFICAN ESTOS RESULTADOS PARA LOS CHATBOTS Y ASISTENTES VIRTUALES QUE UTILIZAN CHATGPT?

Los resultados del estudio tienen implicaciones importantes para los chatbots y asistentes virtuales que utilizan ChatGPT. Si bien es un modelo de lenguaje avanzado, la investigación concluye que no es confiable para responder preguntas sobre medicamentos.

Asimismo, el estudio indica que para garantizar que los chatbots y asistentes virtuales proporcionen información precisa y completa sobre medicamentos, es importante que se utilicen fuentes confiables de información sobre estos.

Además, concluye que los chatbots y asistentes virtuales también deben ser diseñados para reconocer cuándo no tienen suficiente información para responder una pregunta y deben ser capaces de derivar a los usuarios a fuentes confiables de información.

VIDEO RECOMENDADO

Redacción Latina

Recent Posts

Memes del Perú tras caer contra Argentina y ser eliminado de la Copa América 2024

Perú perdió 2-0 ante Argentina por la última fecha de la fase de grupos de…

8 horas ago

Baja de última hora en Perú: así será la alineación final ante Argentina por Copa América

La selección peruana tiene una última oportunidad de poder acceder a los cuartos de final…

10 horas ago

Cómo ver online, Perú vs Argentina en vivo por Copa América

¿Cómo ver Perú vs. Argentina EN VIVO ONLINE por la fecha 3 del Grupo A…

10 horas ago

Copa América: lo que pasa si Perú y Chile empatan en puntos en el grupo A

Perú enfrenta hoy un decisivo partido contra Argentina en la última fecha de la fase…

11 horas ago

Perú – Argentina en vivo: horario, canal y minuto minuto

Perú vs. Argentina EN VIVO ONLINE se enfrentan por la fecha 3 del Grupo A…

11 horas ago

Latina Deportes: vota en la encuesta

A continuación, te mostramos la encuesta de Latina Deportes del 29 de junio del 2024. Escoge una…

12 horas ago