AHORA MAS GRANDE Y AL MISMO PRECIO DE UNA PEQUEÑA

AHORA MAS GRANDE Y AL MISMO PRECIO DE UNA PEQUEÑA

Proindustria exhibe en feria casi cien proyectos

Proindustria exhibe en feria casi cien proyectos

martes, mayo 12

Google dice que su IA asiste al médico: el estudio muestra que ya lo reemplaza en la mitad de la consulta

 


Google DeepMind publicó esta semana su iniciativa IA co-clinician. La presentación es pulcra: una inteligencia artificial de un esquema que llaman triadic care. Médico, paciente, agente. El médico conserva el juicio y el control. La IA extiende su alcance. Un equipo.


DeepMind hizo una simulación randomizada con 20 escenarios clínicos y 10 médicos haciendo de pacientes-actores. Evaluaron 140 aspectos de la consulta: desde detectar señales de alarma hasta guiar exámenes físicos por video. Compararon al sistema con médicos reales de atención primaria.


Resultado: el sistema igualó o superó al médico humano en 68 de las 140 dimensiones evaluadas. Casi la mitad.


Google lo presenta al revés. Dice que los médicos rindieron mejor “en general”, sobre todo identificando señales de alarma y guiando exámenes críticos. Es verdad. Pero la otra mitad de la oración, la que la nota corporativa escribe en chiquito, es esta: en 68 áreas el sistema ya no está debajo del médico.


El “co-” es marketing regulatorio

Hay una razón por la que Google necesita llamarlo co-clinician y no clinician. Llamarlo clínico a secas sería un problema con la FDA, la agencia que regula medicamentos y dispositivos médicos en Estados Unidos. Sería un problema gremial con las asociaciones de médicos. Sería un problema reputacional con los pacientes. Sería un problema legal si algo sale mal.


El prefijo “co-” es un escudo. Sirve para que el sistema pueda operar en un terreno donde la palabra completa todavía no se puede pronunciar.


No es crítica al sistema. Es lectura del framing.


Ilustración conceptual de una balanza con un médico en un platillo y una figura abstracta digital con circuitos y acentos de colores de Google en el otro, sobre un fondo azul petróleo.

El estudio de Google revela que la inteligencia artificial ya cubre la mitad de las funciones de un médico de atención primaria en consultas simuladas. (Imagen Ilustrativa Infobae)

El dato que la nota corporativa no resalta

Hay un segundo hallazgo del mismo estudio que conviene mirar. En la evaluación de 98 consultas de evidencia clínica, el sistema registró cero errores críticos en 97 casos, superando a las dos herramientas de IA que ya usan los médicos en su trabajo diario. Esas herramientas existen, están en el mercado, los médicos las pagan o las usan vía hospital. Y el propio paper de DeepMind dice que el co-clinician las supera.


En un tercer benchmark, sobre preguntas de medicación del set OpenFDA RxQA, los médicos de atención primaria rindieron, en palabras del propio paper, “modestamente” en el formato multiple choice. El sistema, en cambio, mostró mejoras significativas en ese mismo formato. Cuando las preguntas se formularon en formato abierto, como aparecen en una consulta real, el sistema superó a otros modelos de frontera.


Tres frentes: consulta general, evidencia clínica, conocimiento de medicación. En los tres, el sistema está al nivel o por encima de las herramientas disponibles, incluido el médico humano en una parte significativa del trabajo.


Lo que el estudio sí reconoce

Conviene no exagerar. El propio equipo de DeepMind marca límites: el médico sigue siendo mejor en detectar señales de alarma, en guiar exámenes físicos críticos, en el juicio clínico integral. Y es simulación, no clínica real. Los pacientes son actores. La metodología la diseñó Google con sus socios académicos en Harvard y Stanford, no un evaluador independiente.


Todo eso importa. Pero ninguna de esas limitaciones explica por qué un sistema que iguala al médico en 68 de 140 dimensiones se vende como herramienta de apoyo


INFOBAE