La promesa de la Inteligencia Artificial médica
Líderes en la hoja de ruta de la tabla de informática biomédica para aprovechar la promesa de la IA médica
Mejorar la velocidad y la precisión del diagnóstico clínico, aumentar la toma de decisiones clínicas, reducir el error humano en la atención clínica, individualizar las terapias basadas en los perfiles genómicos y metabolómicos de un paciente, diferenciar las lesiones benignas de las cancerosas con una precisión impecable, identificar las condiciones probables que una persona puede desarrollar años en el futuro, detectando los primeros signos reveladores de una enfermedad ultrarara, interceptando las interacciones medicamentosas peligrosas antes de que se administre un nuevo medicamento a un paciente, obteniendo información en tiempo real en medio de una pandemia furiosa para informar el tratamiento óptimo de los pacientes infectados con un nuevo patógeno humano.
Estas son algunas de las promesas que los médicos e investigadores buscan cumplir con el uso de la inteligencia artificial, promesas preparadas para transformar la atención clínica, conducir a mejores resultados para los pacientes y, en última instancia, mejorar la vida de las personas.
Si se hace bien, la inteligencia artificial podría lograr todo esto.
Sin embargo, IA no es una solución milagrosa. Puede caer presa de las falibilidades cognitivas y los puntos ciegos de los humanos que lo diseñan.
Los modelos de IA pueden ser tan imperfectos como los datos y las prácticas clínicas en las que se entrenan los algoritmos de aprendizaje automático, propagando los mismos sesgos que la IA fue diseñada para eliminar en primer lugar.
Más allá de los escollos conceptuales y de diseño, darse cuenta del potencial de la IA también requiere superar los obstáculos sistémicos que se interponen en el camino de la integración de las tecnologías basadas en la IA en la práctica clínica.
¿Cómo avanza el campo de la medicina para aprovechar la promesa de la IA? ¿Cómo elimina los peligros planteados por su diseño subóptimo o uso inadecuado? ¿Cómo se puede integrar la IA a la perfección en la atención clínica de primera línea?
Estas son algunas de las preguntas generales que se abordarán en el Simposio inaugural sobre Inteligencia Artificial para el Aprendizaje de Sistemas de Salud (SAIL) que se celebrará del 18 al 20 de octubre en Hamilton, Bermuda, un evento que se prevé que se convierta en una conferencia anual.
Concebido por Zak Kohane , presidente del Biomedical Informatics | Department of Biomedical Informatics (harvard.edu) de la Facultad de Medicina de Harvard, el simposio reunirá a las mentes más brillantes de la academia y la industria en los campos de la informática, la inteligencia artificial, la medicina clínica y la asistencia sanitaria.
El cargo es establecer los marcos filosóficos y prácticos hacia la traducción óptima de la IA a la clínica. “¿Cómo podemos lograr los mejores aspectos de la IA para aumentar los mejores y la mayoría de los componentes humanos de la relación médico-paciente y acelerar con seguridad 21 st la medicina del siglo? Estas son las preguntas centrales que espero que podamos responder ”, dijo Kohane.
Sin embargo, uno de los objetivos más sencillos (y más inmediatos) del simposio será salvar los abismos entre varios jugadores de la IA y la medicina simplemente haciéndolos hablar entre ellos.
“Tenemos varias comunidades involucradas en la IA que esperan que la IA de alguna manera mejore la medicina, pero no tienen forma de comunicarse e interactuar entre sí. Así que uno de los objetivos de este simposio es crear comunicación, no en torno a cuestiones teóricas de metodología sino en torno a la pragmática de la implementación ”, dijo Kohane.
Pero la idea no es simplemente que los teóricos y los metodólogos se relacionen con los profesionales. Se trata de crear un espacio común para la conversación (y la eventual colaboración) entre expertos que tradicionalmente han trabajado en paralelo en lugar de en intersecciones, incluidos informáticos clínicos, especialistas en aprendizaje automático, médicos, administradores, editores de revistas médicas y los encargados de implementar la IA en cuidado de la salud.
El evento estaba originalmente programado para 2020, pero la pandemia de COVID-19 descarriló esos planes.
Para mantener el impulso y sentar las bases para el evento principal, Kohane celebró una sesión de calentamiento virtual en el otoño de 2020, durante la cual los expertos mapearon algunos de los desafíos más agudos y las mayores oportunidades en el campo de la IA médica.
El médico optimizado por IA
La inmensa capacidad analítica y de procesamiento de la inteligencia artificial y el aprendizaje automático, una forma de inteligencia artificial, puede aumentar poderosamente la toma de decisiones humana y complementar las capacidades cognitivas exclusivamente humanas, como la detección de matices más finos y la aplicación del sentido común. La combinación de inteligencia humana y mecánica podría optimizar la práctica de la medicina clínica y agilizar las operaciones de atención médica.
Las herramientas de inteligencia artificial basadas en el aprendizaje automático podrían ser especialmente valiosas porque se basan en el aprendizaje adaptativo. Esto significa que con cada exposición a nuevos datos, el algoritmo mejora en la detección de patrones reveladores. Tales herramientas tienen la capacidad de trascender los límites de absorción de conocimiento y retención de información del cerebro humano porque pueden ser “entrenados” para considerar millones de registros médicos y miles de millones de puntos de datos.
Dichas herramientas podrían impulsar la toma de decisiones de los médicos individuales al ofrecerles el conocimiento acumulado de miles de millones de decisiones médicas, miles de millones de casos de pacientes y miles de millones de resultados para informar el diagnóstico y el tratamiento de un paciente individual.
Las herramientas basadas en IA podrían alertar a los médicos sobre una elección de medicación subóptima, o podrían clasificar los casos de pacientes con enfermedades raras
La IA puede ayudar a optimizar las decisiones clínicas tanto de diagnóstico como de pronóstico, puede ayudar a individualizar el tratamiento y puede identificar a los pacientes con alto riesgo de progresar a una enfermedad grave o de desarrollar una afección, lo que permite a los médicos intervenir de manera preventiva.
Por ejemplo, estas herramientas médicas complementarias se pueden utilizar no solo para detectar la presencia o ausencia de enfermedad, sino también para predecir el riesgo de enfermedad. Podrían ayudar a predecir quién es probable que responda a ciertos tratamientos, como la quimioterapia o la inmunoterapia, y quién no se beneficiará de ellos, dijo el panelista del pre-simposio Anant Madabhushi , profesor de ingeniería biomédica en la Universidad Case Western Reserve y director del Centro de Imágenes Computacionales y Diagnósticos personalizados allí.
La IA puede ayudar a agilizar el flujo de trabajo de los radiólogos al usarse como el triaje principal de las mamografías, por ejemplo.
“No deberíamos pensar en reemplazar a las personas, deberíamos pensar en aumentar las personas, y la forma de aumentar las personas es permitirles que se concentren en el lugar donde las personas tienen más valor”, dijo Greg Hager , profesor de informática en Universidad Johns Hopkins.
“Estamos comenzando a diseñar sistemas humanos y mecánicos que funcionen juntos. La combinación correcta de inteligencia humana e inteligencia de máquina puede producir un resultado mejor que cualquiera de las dos ”, agregó Hager.
Un equipo dirigido por Hager desarrolló un algoritmo que identifica mamografías normales con mayor precisión que los radiólogos humanos. Estas imágenes prefiltradas y preseleccionadas se pueden enviar a un médico humano para su posterior revisión y aprobación. Esta asistencia de IA ofrece más que una preselección. Les da a los radiólogos el tiempo y el espacio cognitivo para enfocarse en las imágenes que exhiben anomalías y, por lo tanto, son mucho más importantes, dijo Hager.
“Lo que analizamos fue cómo podemos construir herramientas que mejoren el flujo de trabajo y alivien a los radiólogos de hacer un trabajo pesado”, dijo. La idea general, agregó Hager, era usar una herramienta de inteligencia artificial para reemplazar a los médicos para manejar las revisiones iniciales de memoria y dejar a los médicos humanos en la punta de la pirámide, donde hay un alto valor en la participación humana.
Optimización de la relación médico-paciente
La medicina es, en esencia, una profesión profundamente humanista y el cuidado del paciente es una de las actividades más humanas y humanas. Sin embargo, la atención médica puede ser deshumanizante.
“Mucha de la tecnología introducida en el cuidado de la salud ha sido criticada con razón por interferir en la relación médico-paciente”, dijo Nicholas Tatonetti , profesor asociado de informática biomédica en la Universidad de Columbia. “Existe una oportunidad para que la tecnología ya no se interponga en el camino, sino que comience a desaparecer en un segundo plano y ponga esa interacción en el centro. ¿Cómo hacemos que eso suceda? ”
El concepto fundamental detrás de las herramientas de IA debería ser que complementen y optimicen a los médicos humanos, no los desplacen a la hora de tomar decisiones muy complejas.
“El médico, el paciente y el modelo de aprendizaje automático pueden trabajar juntos siempre y cuando diseñamos asistentes de toma de decisiones en lugar de tomadores de decisiones”, dijo la panelista del pre-simposio Cynthia Rudin , profesora de informática, ingeniería eléctrica e informática y ciencia estadística en la Universidad de Duke.
Del tratamiento de enfermedades a la preservación del bienestar
Cuando pensamos en la atención médica, generalmente pensamos en problemas agudos. En el mejor de los casos, la atención médica optimizada por IA debería alejarnos de este defecto imperfecto, dijo Hager.
“En lo que realmente deberíamos pensar es en cómo mantener a las personas bien y qué significa tener una perspectiva a largo plazo sobre la trayectoria de un individuo y qué los mantendrá bien”, dijo Hager. “Si eres médico y acudiste a un paciente y tuviste acceso a esta perspectiva longitudinal más holística, podrías comenzar a contextualizar algunas de las cosas que ves frente a ti. En lugar de ver a un paciente al que le diagnosticaron una enfermedad, podría comenzar a ver el contexto más amplio de su situación de vida y ver esta enfermedad como un paso en el camino. Deberíamos pensar en cómo corregimos este camino en contraposición a cómo tratamos esta enfermedad aguda en particular en este momento. En lugar de pensar en un episodio, piense en una serie de episodios y cómo se combinan en la historia de la salud de este individuo.
Es la diferencia entre ver la atención médica como el tratamiento de enfermedades en lugar de como la preservación del bienestar y la salud, dijo Hager. La IA podría contribuir poderosamente en esta área al ofrecer datos ricos y una perspectiva de largo alcance sobre pacientes individuales.
Los peligros de la IA de caja negra
Uno de los elementos imprescindibles de cualquier herramienta de IA médica es la transparencia. Por lo tanto, los desarrolladores de dichos modelos deben asegurarse de que estas herramientas sean comprensibles e interpretables. En otras palabras, los médicos humanos deberían poder comprender el “razonamiento” de los modelos de IA que están utilizando y cómo y por qué una herramienta de IA genera un veredicto o resultado en lugar de otro.
“Si no comprende el proceso de razonamiento del modelo de IA, es posible que esté razonando sobre las cosas de manera incorrecta”, dijo Rudin.
El razonamiento opaco en el aprendizaje automático también se conoce como IA de caja negra. Un modelo de caja negra es una función que es demasiado compleja para que la comprenda un humano o es un modelo patentado, “lo que significa que es la salsa secreta de alguien y no tienes acceso a ella”, dijo Rudin.
La importancia de ser multilingüe
La construcción de modelos de IA confiables comienza con tener las conversaciones adecuadas entre diseñadores y usuarios finales. Para ilustrar esto, Madabhushi contó la historia de un modelo de IA que su equipo diseñó para ayudar a diferenciar entre nódulos pulmonares malignos y benignos. Aunque un modelo preexistente funcionó bien, dijo Madabhushi, una de las cosas que este modelo “asumió” fue que toda la información necesaria para distinguir entre nódulos malignos y benignos se encuentra dentro del nódulo.
Madabhushi y sus colegas decidieron diseñar otra herramienta, pero lo que es más importante, primero hablaron con sus usuarios de primera línea: los radiólogos y cirujanos cardiotorácicos que examinan y tratan las lesiones pulmonares. En esa conversación, el equipo exploró la posibilidad de que algunas de las características reveladoras que pueden presagiar malignidad puedan estar fuerael nódulo, en lugar de dentro de él. Observaron los vasos sanguíneos que alimentaban el nódulo desde el exterior y tuvieron en cuenta la densidad de los vasos sanguíneos y la tortuosidad alrededor del tumor. Los nódulos que estaban envueltos en una red densa y retorcida de vasos sanguíneos tendían a ser malignos, en comparación con los nódulos benignos, que tendían a tener una vasculatura más suave. Luego, el equipo ideó un modelo que, basándose solo en esa característica, podía distinguir de manera confiable los nódulos pulmonares cancerosos de los benignos.
“Este es un conocimiento de dominio en el que tener conversaciones con los médicos le permite encontrar características que son interpretables y tienen una conexión con la patobiología de la enfermedad, y ha involucrado a los médicos en el proceso de desarrollo de la herramienta”. Dijo Madabhushi.
Hacia una IA equitativa
La IA no es infalible y no resolverá todos los problemas de la medicina clínica, muchos de los cuales involucran desafíos más amplios de los sistemas de salud que no se pueden resolver con computadoras.
Un ejemplo de ello es el sesgo. El sesgo en la medicina es real y se filtra en la IA. Los datos y las prácticas que no son étnicas, raciales o de otra manera diversas pueden alimentar algoritmos y herramientas de inteligencia artificial sesgados. Estas herramientas pueden, a su vez, propagar los sesgos e inequidades existentes en la atención clínica.
Las herramientas de IA funcionarán tan bien como los modelos y los datos en los que estén entrenados. Una de las barreras más críticas en ese frente es el acceso a datos sin procesar que son étnicos, raciales y de otra manera diversos.
Un ejemplo revelador son algunas de las herramientas actuales de predicción de riesgos que se utilizan para analizar imágenes de tejidos del cáncer de próstata para pronosticar la progresión y la gravedad de la enfermedad en hombres blancos y negros. Se sabe que los hombres negros tienen un cáncer de próstata más severo, sin embargo, los modelos de riesgo existentes de cáncer de próstata se han construido en gran parte utilizando datos derivados de hombres no negros, dijo Madabhushi. Su equipo realizó un estudio y encontró diferencias características en las imágenes de tumores de hombres negros y blancos. Utilizaron estas características para construir un modelo de predicción de la gravedad de la enfermedad específico de la población para el cáncer de próstata.
“El uso de este modelo en hombres negros resultó en una precisión mucho mayor en la predicción del riesgo de recurrencia”, dijo. “Tenemos la responsabilidad ahora de ver cómo podemos usar la IA de una manera que ayude a abordar las necesidades de salud de las poblaciones subrepresentadas. Esta es una oportunidad en la que la IA podría ayudar a rectificar algunas de esas disparidades “.
Sin embargo, combatir el sesgo no es simplemente una función de garantizar que el modelo se alimente de datos representativos e inclusivos. El problema más fundamental es quién está construyendo los algoritmos. La recopilación y la alimentación de datos confiables comienza con las preguntas que hacen quienes construyen los algoritmos en primer lugar, dijo la oradora del pre-simposio Tiffani Bright , líder de informática biomédica del Centro de Inteligencia Artificial, Investigación y Evaluación en IBM Watson Health.
“Si está construyendo estos algoritmos y no tiene una fuerza laboral representativa, hay prejuicios, pero también estereotipos. ¿Qué es un estereotipo? Puede que ni siquiera esté pensando en eso mientras estoy construyendo estas herramientas ”, dijo Bright. “Ese es un aspecto. Luego te metes en los datos “.
La vulnerabilidad al sesgo se extiende tanto al diseño como a la posterior validación de las herramientas de inteligencia artificial, dijo la panelista del pre- simposio Marzyeh Ghassemi , profesora asistente de ciencias de la computación y medicina en la Universidad de Toronto.
“Mire las fuentes de datos a las que tiene acceso para validar un algoritmo”, dijo Ghassemi. “Se ha demostrado una y otra vez que todos los datos que tenemos de los ensayos clínicos están muy sesgados. A menudo, estos ensayos no tienen un grupo diverso de personas “.
“No es necesario que, cuando obtenga un dispositivo médico aprobado por la FDA, demuestre que funciona en pieles negras. Hay una razón por la que esos monitores de SPO2 no estaban funcionando muy bien inicialmente cuando COVID golpeó a algunas poblaciones ”, agregó Ghassemi, refiriéndose a los monitores de nivel de oxígeno en sangre que se usan para detectar signos de enfermedad pulmonar avanzada en pacientes con COVID-19.
“Sí, la validación y la implementación son a menudo cosas diferentes, pero no siempre pensamos en qué tan arraigado está el sesgo en cada paso: pensar en las preguntas de investigación, qué equipos de investigación las analizarán, qué se financia, qué datos puedes recopilar y qué tipo de resultados vas a estudiar, luego construimos el algoritmo basado en estas estructuras realmente sesgadas que ya existen ”, dijo.
“Si no abordamos esto en el nivel fundamental del diseño y la implementación de la IA, entonces, independientemente de los sesgos que estén presentes en el sistema, estaremos arrojando hormigón sobre ellos”, dijo Kohane. “Si hacemos esto de manera ingenua, si solo usamos los conjuntos de datos existentes para impulsar el estándar de atención para el futuro, entonces esencialmente lo reproduciremos”.
Kohane advierte que tener una sensibilidad teórica sobre este tema no es suficiente.
“¿Cómo aborda esto en la práctica? Esta es todavía una pregunta abierta, y necesitamos tener esa conversación, que en realidad aún no ha sucedido sustancialmente “.
El asunto también es más complicado que la calidad de los datos introducidos en el modelo.
“Supongamos que los datos son de calidad perfecta, pero representan lo que les estamos haciendo a nuestros pacientes hoy”, dijo Kohane. “Este no es un problema de datos, es un problema separado que surge de décadas de sesgo sistémico y estructural que puede reflejarse en las prácticas actuales de la medicina. Entonces todo lo que está bien con la práctica de la medicina se propaga y también lo que está mal con la práctica de la medicina “.
“Si nosotros, como médicos, no estamos siendo lo suficientemente agresivos en nuestros esfuerzos para prevenir el parto prematuro en mujeres afroamericanas embarazadas, entonces eso es exactamente lo que estos algoritmos de aprendizaje automático van a captar”, agregó.
Más fundamentalmente, las herramientas de IA deben diseñarse para representar y reflejar los objetivos y necesidades de aquellos a quienes están destinados a servir, incluidos los médicos y los pacientes.
“Hemos estado pensando en cómo crear un grupo de trabajo anti-prejuicios y las personas que deberían estar en la mesa”, dijo la oradora del pre-simposio M aia Hightower , directora de información médica de la Universidad de Utah Health. “Por supuesto, los científicos de datos, pero también los miembros de nuestra comunidad, porque lo que es importante para una comunidad puede ser diferente de lo que percibimos que es importante dentro del sistema de salud”.
“Uno de los médicos que más respeto siempre me dice: ‘No me pregunten, pregunten a las enfermeras, ellos hacen todo el trabajo duro’”, dijo Ghassemi. “A menudo, en la comunidad de aprendizaje automático, cuando colaboramos, hablamos abrumadoramente con médicos académicos. Nuestro enfoque a menudo es realmente miope y debe ampliarse “.
[read more]
Obstáculos para la implementación
La incorporación del uso de herramientas de inteligencia artificial en la atención clínica de primera línea ha sido irregular en el mejor de los casos. Los desafíos clave incluyen mejorar la interoperabilidad y la adaptabilidad pero, de manera más ambiciosa y fundamental, alinear los objetivos e incentivos de varios actores en el campo de la atención médica y la medicina.
La pandemia de coronavirus subrayó, con una claridad desilusionante, la importancia de la interoperabilidad.
“A pesar de la increíble digitalización durante la última década o 15 años en todo tipo de operaciones de atención médica, descubrimos que todavía tenemos una frustrante incapacidad para conectar los puntos digitales”, dijo el orador del pre-simposio Peter Lee , vicepresidente corporativo de investigación e incubación de Microsoft.
Lee dijo que tales problemas de interoperabilidad fueron magnificados por las prácticas y estándares comerciales, los desafíos tecnológicos y el entorno regulatorio, todos conspirando para hacer esto más complicado.
“El mundo no es un conjunto de cuadros desplegables”, dijo el orador del pre-simposio Ken Ehlert , director científico de United Healthcare Group. “El mundo no está definido de manera rígida de manera que nos permita dividir estos problemas en un método absolutamente estándar”.
Uno de los pasos más importantes para resolver este problema es tener una comprensión clara del propósito de los datos y de la herramienta de inteligencia artificial que captura esos datos.
“No solo debemos pensar en los estándares y la interoperabilidad, sino también en cuál es el propósito de los datos que va a recopilar, porque si anticipa ese propósito, puede hacer un mejor trabajo en la recopilación de datos que cumpla con ese propósito”, dijo el pre-simposio altavoz Eric Rubin , editor en jefe de la New England Journal of Medicine y NEJM Group.
Rubin señaló que la mayoría de los sistemas de registros médicos electrónicos que se utilizan ahora se construyeron con miras a facilitar la generación y presentación de reclamaciones de seguros.
Para resolver los problemas de interoperabilidad, el enfoque tiene que ser mucho más fundamental porque la falta de interoperabilidad puede ser un síntoma de un problema más profundo, es decir, metas mal definidas por varias partes interesadas y sistemas.
“El objetivo número uno en el cuidado de la salud es brindar a las personas el mejor resultado de salud y la más alta calidad de vida durante el mayor número de años posible”, dijo Ehlert. “Si ese es el objetivo, ¿cómo alineamos a las personas en todo el sistema para que los datos se recopilen para que esto suceda de la mejor manera?”
“Un ejemplo es que tenemos que alinearnos con nuestra definición de lo que significa una mejor salud. ¿Son dos semanas más al final de la vida o son mejores 20 años en los años previos? ” añadió. “Preguntas como esta deben responderse para ayudar a resolver los problemas de interoperabilidad”.
“En última instancia, lo que todos estamos luchando juntos es que reconozcamos que hay un riesgo y una pérdida en cada punto del viaje de la atención médica”, dijo Lee. “Básicamente, todos estamos viendo la posibilidad de que podamos construir negocios rentables al eliminar esa pérdida y entregar valor de esa manera. Este es uno de los lugares únicos donde nuestro mandato de obtener ganancias se alinea con la necesidad social de tener una atención médica más eficiente, de menor costo y más accesible para todas las personas “.
Herramientas de IA en las trincheras
Sin embargo, esto no quiere decir que la IA no está ya cumpliendo con su promesa de alguna manera, dijeron los panelistas.
Lee identificó varias áreas inminentes de aumento impulsado por la IA, incluido el apoyo a las decisiones clínicas que brindan asistencia inteligente durante la interacción médico-paciente para eliminar la carga administrativa e iluminar los procesos biológicos fundamentales que impulsan el desarrollo de la enfermedad, lo que eventualmente puede conducir a mejores herramientas de diagnóstico y más efectivas , terapias dirigidas con precisión.
“Una herramienta emergente es la implementación de inteligencia clínica ambiental que es capaz de escuchar las conversaciones entre el médico y el paciente y configurar automáticamente notas de encuentros clínicos, lo que alivia a los médicos de tomar notas”, dijo Lee.
“Ahora tenemos modelos de lenguaje con cientos de miles de millones de parámetros en las redes neuronales. Esto permite que los modelos de inteligencia artificial lean miles de artículos y resúmenes de investigación médica publicados todos los días y los sinteticen en gráficos de conocimiento y los proporcionen para un mejor apoyo a las decisiones ”, dijo Lee. Estos programas, dijo, ya se están utilizando para respaldar las decisiones de las juntas de tumores de los hospitales.
Suchi Saria , profesor asociado y director de IA y salud en la Universidad Johns Hopkins, subrayó el potencial a veces desperdiciado de las herramientas de IA que se utilizarán para la intervención anticipatoria.
“Podemos cambiar de un paradigma reaccionario a un paradigma más participativo, por ejemplo, en áreas como la sepsis, la décima causa principal de muerte”, dijo Saria. “Las intervenciones existen, pero son mucho más efectivas si las aplica temprano. La IA es prácticamente la única forma de identificar los síndromes de afecciones de la sepsis en pacientes en riesgo de manera temprana y precisamente debido a la heterogeneidad de presentación entre los pacientes “.
Otro ejemplo es el uso de IA en accidentes cerebrovasculares, dijo. La capacidad de utilizar técnicas avanzadas de IA para analizar imágenes e identificar pacientes con oclusiones de vasos grandes significa que el paciente puede ser derivado a un centro de accidentes cerebrovasculares en cuestión de minutos en lugar de horas, que es el flujo de trabajo tradicional.
En las readmisiones, la capacidad de evaluar qué pacientes tienen un alto riesgo de volver al hospital y por qué están en riesgo de readmisión podría ayudar a los médicos a abordar este riesgo de manera proactiva y alterar drásticamente los resultados, dijo Saria.
Pero Saria agregó que se está permitiendo que languidezca parte del potencial de la IA, lo que subraya la urgencia de implementar la infraestructura para respaldar el aprendizaje a partir de datos en tiempo real.
“Nuestra dependencia únicamente de los ensayos clínicos aleatorios para la generación de evidencia está ralentizando drásticamente la velocidad a la que podemos aprender de nuestros datos”, dijo Saria. “En COVID, el hecho es que no teníamos respuestas a preguntas como ‘¿Es efectivo el proning?’ o “¿Deberíamos intentar realizar una ventilación mecánica invasiva de forma temprana o realizar terapias alternativas?” Es posible responder a estas preguntas de una manera bastante granular con el tipo de datos recopilados en la actualidad “.
Los ensayos clínicos aleatorios para interrogar y generar datos son un estándar de oro imperfecto, coincidió Rubin.
“Solo puede hacer una pregunta, y puede llevar 10 años y cientos de millones de dólares responder a esa pregunta”, dijo.
“Creo que la evidencia del mundo real es fundamentalmente diferente. Es un trabajo en progreso descubrir cómo hacerlo riguroso ”, agregó Rubin. “Hay un matrimonio de los dos. Creo que existe la oportunidad de utilizar la historia clínica electrónica junto con los criterios de contratación para averiguar qué sucedió sin pasar por la vía de ensayo clínico tradicional, que es realmente oneroso, pero esa no es la respuesta final. La respuesta final es cómo aportar rigor y cómo comprender el rigor dentro de los ensayos que no están diseñados tradicionalmente “.
Tanto Lee como Saria también advirtieron sobre los peligros del pensamiento mágico y la fe desenfrenada en las habilidades de la IA.
“A veces, la comunidad médica está demasiado deslumbrada por el poder emergente de la IA, que a veces conduce a un exceso de optimismo en ambas direcciones que debe ser revisado, sin renunciar a las verdaderas posibilidades reales”, dijo Lee.
Saria dijo que educar a los médicos de primera línea sobre los matices de la IA es fundamental para evitar que los profesionales se deslumbren demasiado.
“Aquí es donde las revistas tienen un papel muy importante que desempeñar en términos de educar a los lectores de que hay formas en las que podemos aprender resultados imparciales confiables utilizando los datos desordenados que existen en los registros médicos electrónicos”, dijo.
Evaluación del desempeño de la IA en el punto de atención
Una de las preguntas más críticas en torno a la IA es cómo evaluar su rendimiento y cómo diseñar algoritmos que garanticen que las afirmaciones hechas por el desarrollador se confirmen en la práctica. Y uno de los desafíos a largo plazo más importantes de la regulación y aprobación de las herramientas de IA será proporcionar una evaluación comparativa contextualizada de las herramientas de IA en lugar de simplemente proporcionar informes aislados sobre la seguridad y eficacia de cada herramienta individual, dijo Kohane.
“La FDA está haciendo cosas geniales y creativas, y lo que hace es decir ‘esto es seguro para un estándar determinado’. Lo que no hace es decir ‘esto es mejor que el otro producto’ ”. Dijo Kohane
Kohane dio un ejemplo hipotético, comparando dos herramientas de biopsia líquida que usan sangre para detectar la recurrencia del cáncer. Según publicaciones revisadas por pares, estos dos algoritmos son 50 por ciento efectivos para detectar la presencia de mutaciones. Sin embargo, ambos están aprobados por la FDA. Sin embargo, la FDA no ofrece comparaciones del desempeño de estas herramientas con otras opciones disponibles para detectar la recurrencia del cáncer.
“Entonces, la FDA no está haciendo la función de Consumer Reports” , dijo Kohane. “Es un comentario triste que vayamos a tener menos conocimiento sobre qué algoritmo de IA adoptar que al comprar un refrigerador o un colchón”.
Una solución intermediaPodría ser incluir rangos de confianza para todos los modelos de aprendizaje automático para informar a los médicos cuán preciso es probable que sea un modelo, escribieron Kohane y sus colegas en un artículo de perspectiva de 2019 publicado en The New England Journal of Medicine. Aún más importante, dijeron los autores, es que todos los modelos deben estar sujetos a reevaluaciones y pruebas periódicas, al igual que los exámenes periódicos que los médicos deben tomar para mantener las certificaciones en un campo dado de la medicina.
En última instancia, evaluar el rendimiento de la IA debería ir más allá de una mera evaluación de su capacidad para funcionar mejor que un operador humano o mejor que otra herramienta.
El criterio definitivo debería ser si un modelo de IA determinado mejora los resultados reales de los pacientes.
Por lo tanto, los dos criterios más importantes para examinar el rendimiento de la IA, dijo Kohane, deberían ser si conduce a un mejor resultado para los pacientes y si su razonamiento es transparente y explicable.
“En este momento propicio en el que vemos AI llevando a cabo en la clínica, la cuestión más importante es cómo equilibrar la sabia antiguo asesor primum, non nocere -primero, no hacer daño – mientras que ayuda a los pacientes mejores resultados con el uso de estas nuevas tecnologías donde los humanos por sí solos no pueden “.
La conferencia 2021 se desarrollará a lo largo de tres ejes temáticos:
Útil versus odioso
Esta sección está dedicada a abordar cuestiones de equidad en el diseño y uso de la IA. Los participantes discutirán la importancia de reconocer el sesgo en los algoritmos y herramientas de IA e identificar formas de minimizar y eliminar dicho sesgo. También se explorarán varias dimensiones de sesgo y disparidades, incluidos algunos casos en los que el sesgo puede ser útil en el diseño de IA.
Útil versus exagerado
Los panelistas discutirán la importancia de diseñar herramientas que funcionen de manera confiable, efectiva y segura y la importancia de examinar y validar el desempeño de la IA en el mundo real. Otra dimensión de esta discusión será cerrar las brechas entre los modelos de IA que son intelectualmente interesantes y los modelos de IA que son significativos y aplicables para su uso en la primera línea de la medicina.
El futuro es ahora: historias desde las trincheras
Los panelistas explorarán herramientas impulsadas por IA que ya están en uso clínico e involucrarán a científicos que han pasado por el proceso de obtener la aprobación regulatoria.
[/read]
Otros Reportajes Nuve :
Harvard Teoría de la mente razonamiento social Revista NUVE
Harvard, invertir en ofrecer nuevas terapias Revista NUVE