GDS TV Clima Pronóstico

¿Se fiaría del criterio de ChatGPT para su diagnóstico médico?

En la antigua Grecia, cuando alguien quería conocer su futuro, iba al oráculo de Delfos y preguntaba a la Sibila acerca de su porvenir. En no pocas ocasiones, estas cuestiones giraban en torno al estado de salud del interesado.

El lunes CNN Chile

 Por si acaso, busque una segunda opinión

Antonio Marca/Shutterstock
Juan Parras Moral, Universidad Politécnica de Madrid (UPM)

También en la antigua Grecia vivió Hipócrates, el precursor de la medicina moderna. Y en los más de dos mil años que nos separan de sus enseñanzas, la medicina ha avanzado de forma espectacular hasta la actualidad, cuando acudir a la consulta del médico forma parte de nuestras rutinas.

Del Dr. Google al Dr. ChatGPT

Pero los avances tecnológicos actuales nos permiten ahorrarnos tanto el viaje a Grecia como el desplazamiento a la consulta y preguntar directamente al Dr. Google. Al erigirse como sustituto del médico, da lugar a autodiagnósticos que, en una proporción no despreciable de ocasiones, son erróneos. Ya se sabe: para el Dr. Google, todo es cáncer.

Esto se agrava con la proliferación de noticias falsas en el campo de la salud, al menos según la percepción de uno de cada cuatro españoles. De ahí el esfuerzo que se hace desde las entidades médicas en divulgar cómo hacer un uso responsable de internet.

Sin embargo, al Dr. Google le ha salido competencia en forma de chat conversacional de inteligencia artificial (IA) –como ChatGPT–, y ya hay quien promete avances médicos espectaculares gracias a su uso.

Pero el Dr. ChatGPT también tiene limitaciones: puede ser capaz de diagnosticar algunas afecciones comunes y, a la vez, fallar estrepitosamente en otras. En medicina, los errores pueden tener consecuencias serias: un paciente que se fio del criterio de ChatGPT pospuso la asistencia médica tras sufrir un accidente cerebrovascular, poniendo en riesgo su vida.

¿Puede la IA reemplazar al médico? Para Shunsuke Koga, profesor de la Universidad de Pensilvania, la respuesta es no, y afirma además que la IA es una herramienta de doble filo: “mientras que tiene potencial para apoyar a los profesionales de la salud y mejorar los procesos de diagnóstico, también hay un riesgo significativo de desinformación y retrasos en el diagnóstico cuando estas herramientas se usan de forma inapropiada por personas sin experiencia médica”.

En otras palabras, la IA actual puede ser una gran ayuda para los profesionales sanitarios, pero no su sustituto.

ChatGPT aparenta ser más listo de lo que es

De hecho, la gran difusión de los avances de la IA en la actualidad suele presentar solo sus éxitos, que son muchos, ocultando sus puntos oscuros. Por ejemplo, los chats conversacionales tienen un exceso de confianza: no admiten los casos en los que predicen a ciegas. Esto se debe a que están diseñados para producir textos que “suenen bien”, pero no tienen capacidad de raciocinio como la de los seres humanos.

Si usted le pregunta a ChatGPT cuánto es uno más uno, sabe que “suena bien” poner un número como respuesta a esa pregunta, porque durante su entrenamiento ha visto muchos casos en los que “uno más uno es dos”. Acierta, pero sin entender qué hace, como en la habitación china de Searle, un experimento mental que defiende que saber manejar símbolos no es suficiente para entender lo que se está haciendo –o diciendo, en caso de ChatGPT–.

Por si esto fuera poco, ChatGPT habla por los codos, dando una apariencia de ser más inteligente de lo que realmente es. Por tanto, no estamos hablando de una IA general, y para sus críticos, “es como poner a un mono delante de un teclado”. Por supuesto, no necesitamos que la IA sea general para que sea útil –de ahí el gran uso de los chats conversacionales—, pero el peligro radica en atribuirle capacidades que van más allá de lo que realmente pueden hacer.

¿Quién se hace responsable si se equivoca?

En el campo médico, además, confluyen otros factores que hacen necesario tomar con cuidado los diagnósticos del Dr. ChatGPT. El primero son los sesgos: todos los modelos de IA actuales se basan en datos, y si los datos contienen sesgos, esa inteligencia artificial los aprenderá y los perpetuará.

Pero el gran problema posiblemente sea de responsabilidad: ¿quién se hace cargo cuando la IA se equivoca en un diagnóstico, poniendo en riesgo la vida del paciente? Si ChatGPT yerra al decirte que no necesitas un visado para viajar, es un enorme inconveniente, pero no pone potencialmente en riesgo una vida.

Por todo ello, en la actualidad, lo mejor es combinar la IA con el criterio médico, una receta que ha dado lugar a bastantes casos de uso exitosos.

El factor humano

El gran elefante en la habitación posiblemente sea más general que hacer preguntas a ChatGPT acerca del estado de salud, y es la falta de capacidad crítica. La IA bien usada es una gran herramienta, con aplicaciones impensables hace un par de años, como la generación, resumen o traducción de textos. Pero si la inteligencia artificial hace gran parte del trabajo pesado, sigue siendo necesario supervisar lo que produce, y este trabajo fino debe ejecutarse con criterio, corrigiendo los errores que se hayan cometido.

Además, ya hay evidencia de que estamos ante un círculo vicioso: el uso indiscriminado de la IA puede afectar de forma negativa a nuestra capacidad crítica.

Por tanto, resulta imprescindible ser capaz de analizar, con dicha capacidad crítica, lo que nos dice la IA. Esto implica una labor formativa titánica, pero muy necesaria, en un mundo en el que estamos rodeados de agentes y chats conversacionales que hablan sin parar. Y en el campo de la salud, esto significa que es necesario el criterio del profesional médico.

Si bien hay motivos que pueden empujar a alguien a confiar en el criterio del Dr. ChatGPT –como la inmediatez en la respuesta–, hace falta recalcar que el criterio del especialista humano sigue siendo generalmente superior a día de hoy. Por tanto, si tiene una duda médica, puede ahorrarse el viaje a Delfos, pero no evite la cita con el médico.The Conversation

Juan Parras Moral, Profesor de Ingeniería de Telecomunicación, Universidad Politécnica de Madrid (UPM)

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Lo más visto
entrenamiento-moverse-mas-para-moverse-mejor

Por qué movernos nos ayuda a borrar los malos recuerdos

The conversation
CuriosidadesEl lunes

Esa frase, a medio camino entre el meme y el consejo bienintencionado, tiene más trasfondo científico del que parece. Detrás de los batidos de proteínas y los selfies en el espejo hay una base científica sorprendentemente sólida: entrenar puede ayudarnos a olvidar malos recuerdos. Y no, no se trata de broscience (algo así como la ciencia de los devotos de los gimnasios), esto es neurociencia de verdad.

VXOC34F3YVFZHNOKZTEGIJ5UCE

¿Cómo se calcula el verdadero valor de un equipo de fútbol?

The Conversation
Aguante DeportesAyer

Ambos análisis han generado valoraciones diferentes. Aunque parten del hecho común de aplicar un multiplicador a los ingresos, difieren en los elementos que ponderan a ese multiplicador: mientras parece que Forbes da prioridad a la valoración basada en el valor de marca, el impacto comercial y el valor mediático, Football Benchmark tiene un enfoque más fundamental, basado en información contable y financiera.