Tendencias

ChatGPT presenta fallas al responder sobre medicamentos, según estudio

El modelo de lenguaje ChatGPT, que se utiliza en muchos chatbots y asistentes virtuales, no es confiable para responder preguntas sobre medicamentos. Así lo indica un estudio realizado por investigadores de la Universidad de California, en San Francisco, Estados Unidos.

De acuerdo a lo mencionado por CNN Brasil, la investigación se centró en la capacidad de ChatGPT para responder preguntas sobre medicamentos de venta libre y recetados. Los resultados del estudio indican que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo proporciona información incorrecta o incompleta.

¿QUÉ ES CHATGPT?

ChatGPT es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es uno de los modelos de lenguaje más grandes y avanzados del mundo, con 175 mil millones de parámetros. ChatGPT se utiliza en muchos chatbots y asistentes virtuales, incluidos Siri, Alexa y Google Assistant.

¿POR QUÉ CHATGPT NO ES CONFIABLE PARA RESPONDER PREGUNTAS SOBRE MEDICAMENTOS?

El estudio de la Universidad de California encontró que ChatGPT no es confiable para responder preguntas sobre medicamentos, ya que a menudo da respuestas erróneas o incompletas.

Por ejemplo, cuando se le preguntó sobre el uso de la aspirina para prevenir ataques cardíacos, ChatGPT proporcionó información incorrecta. En lugar de decir que la aspirina puede ayudar a prevenir ataques cardíacos, ChatGPT dijo que la aspirina no es efectiva para prevenir ataques cardíacos.

Los investigadores también encontraron que ChatGPT a menudo proporcionaba información incompleta. Por ejemplo, cuando se le preguntó sobre los efectos secundarios de la aspirina, ChatGPT solo mencionó algunos de los efectos secundarios, omitiendo otros.

¿QUÉ SIGNIFICAN ESTOS RESULTADOS PARA LOS CHATBOTS Y ASISTENTES VIRTUALES QUE UTILIZAN CHATGPT?

Los resultados del estudio tienen implicaciones importantes para los chatbots y asistentes virtuales que utilizan ChatGPT. Si bien es un modelo de lenguaje avanzado, la investigación concluye que no es confiable para responder preguntas sobre medicamentos.

Asimismo, el estudio indica que para garantizar que los chatbots y asistentes virtuales proporcionen información precisa y completa sobre medicamentos, es importante que se utilicen fuentes confiables de información sobre estos.

Además, concluye que los chatbots y asistentes virtuales también deben ser diseñados para reconocer cuándo no tienen suficiente información para responder una pregunta y deben ser capaces de derivar a los usuarios a fuentes confiables de información.

VIDEO RECOMENDADO

Redacción Latina

Recent Posts

Así va la tabla de Liga 1 en el inicio de la fecha 7 del Torneo Apertura

Mira la tabla de posiciones de la Liga 1 2025 | En el inicio de la fecha 7 del Torneo…

3 horas ago

Partidos de hoy, 4 de abril: programación para ver fútbol, en directo

El fútbol en vivo para hoy, viernes 4 de abril. Te traemos la programación completa de partidos que se disputarán en las…

3 horas ago

Destituyen Presidente de Corea del Sur tras fallido autogolpe de estado

El Tribunal Constitucional de Corea del Sur validó la destitución del presidente Yoon Suk Yeol…

4 horas ago

Temblor en Perú hoy, 4 de abril: horario y epicentro del último sismo, según IGP

Temblor | HOY, viernes 4 de abril en Perú. Nuestro país está ubicado en la zona denominada…

4 horas ago

Temblor en Perú hoy, 3 de abril: horario y epicentro del último sismo, según IGP

Temblor | HOY, jueves 3 de abril en Perú. Nuestro país está ubicado en la zona denominada…

4 horas ago

Corte de agua hoy, 4 de abril: horarios y distritos afectados por Sedapal

La empresa que brinda el servicio de agua potable en Lima, Sedapal, comunica sobre los cortes del servicio. Revisa la…

4 horas ago