El uso de algoritmos informáticos para diferenciar patrones del ruido en los datos ahora es común debido a los avances en la investigación de inteligencia artificial (IA), software de código abierto como scikit-learn y una gran cantidad de científicos de datos talentosos que ingresan al campo. No hay duda de que la competencia en informática, estadísticas y tecnología de la información puede conducir a un proyecto de IA exitoso con resultados útiles. Sin embargo, falta una pieza en esta receta para el éxito que tiene implicaciones importantes en algunos dominios. No es suficiente enseñar a los humanos a pensar como IA. Necesitamos enseñar a la IA a comprender el valor de los humanos.
Considere un estudio reciente revisado por pares de Google y varios socios académicos para predecir los resultados de salud a partir de los registros de salud electrónicos (EHR) de decenas de miles de pacientes que utilizan redes neuronales de aprendizaje profundo. Google desarrolló estructuras de datos especiales para procesar datos, tuvo acceso a una potente informática de alto rendimiento e implementó algoritmos de IA de última generación para predecir resultados, como si un paciente sería readmitido en el hospital después de un procedimiento como una cirugía. Este fue un tour de force de la ciencia de datos.
Aunque los resultados de nivel superior de Google en este estudio afirmaron superar un modelo de regresión logística estándar, había una distinción significativa oculta en la letra pequeña. Si bien Google superó un modelo de regresión logística estándar basado en 28 variables, su propio enfoque de aprendizaje profundo solo vinculó un modelo de regresión logística más detallado creado a partir del mismo conjunto de datos que había utilizado la IA. El aprendizaje profundo, en otras palabras, no era necesario para la mejora del rendimiento que pretendía Google. En este ejemplo, la IA no cumplió con las expectativas.
Aunque los modelos de aprendizaje profundo se desempeñaron mejor que algunos modelos clínicos estándar informados en la literatura, no se desempeñaron mejor que la regresión logística, que es un método estadístico ampliamente utilizado. En este ejemplo, la IA no cumplió con las expectativas.
Los límites del aprendizaje profundo
Entonces, ¿qué faltaba en el estudio de Google?
Para responder a esta pregunta, es importante comprender el dominio de la atención médica y las fortalezas y limitaciones de los datos de los pacientes derivados de los registros de salud electrónicos. El enfoque de Google fue armonizar todos los datos y enviarlos a un algoritmo de aprendizaje profundo encargado de darles sentido. Aunque tecnológicamente avanzado, este enfoque ignoró deliberadamente el conocimiento clínico experto que podría haber sido útil para la IA. Por ejemplo, el nivel de ingresos y el código postal son posibles factores que contribuyen a cómo alguien responderá a un procedimiento. Sin embargo, estos factores pueden no ser útiles para la intervención clínica porque no se pueden cambiar.
Modelar el conocimiento y las relaciones semánticas entre estos factores podría haber informado la arquitectura de la red neuronal, mejorando así tanto el rendimiento como la interpretabilidad de los modelos predictivos resultantes.
Lo que faltaba en el estudio de Google era un reconocimiento del valor que los humanos aportan a la IA. El modelo de Google habría funcionado de manera más efectiva si hubiera aprovechado el conocimiento experto que solo los médicos humanos podrían proporcionar. Pero, ¿cómo se ve el aprovechamiento del conocimiento humano en este contexto?
Aprovechando el lado humano de la IA
La participación humana en un proyecto de IA comienza cuando un programador o ingeniero formula la pregunta que debe abordar la IA. Hacer y responder preguntas sigue siendo una actividad únicamente humana y que la IA no podrá dominar en el corto plazo. Esto se debe a que la formulación de preguntas se basa en una profundidad, amplitud y síntesis de conocimientos de diferentes tipos. Además, hacer preguntas se basa en el pensamiento creativo y la imaginación. Uno debe poder imaginar lo que falta o lo que está mal a partir de lo que se sabe. Esto es muy difícil de hacer para las IA modernas.
Otra área donde se necesitan humanos es la ingeniería del conocimiento. Esta actividad ha sido una parte importante del campo de la IA durante décadas y se enfoca en presentar el conocimiento específico del dominio correcto en el formato correcto para que la IA no tenga que comenzar desde cero al resolver un problema. El conocimiento a menudo se deriva de la literatura científica escrita, evaluada y publicada por humanos. Además, los humanos tienen la capacidad de sintetizar conocimiento que supera con creces lo que puede hacer cualquier algoritmo informático.
Uno de los objetivos centrales de la IA es generar un modelo que represente patrones en los datos que puedan usarse para algo práctico como la predicción del comportamiento de un sistema biológico o físico complejo. Los modelos generalmente se evalúan utilizando criterios computacionales o matemáticos objetivos, como el tiempo de ejecución, la precisión de la predicción o la reproducibilidad. Sin embargo, hay muchos criterios subjetivos que pueden ser importantes para el usuario humano de la IA. Por ejemplo, un modelo que relacione la variación genética con el riesgo de enfermedad podría ser más útil si incluyera genes con productos proteicos susceptibles de desarrollo y selección de fármacos. Este es un criterio subjetivo que solo puede ser de interés para la persona que utiliza la IA.
Finalmente, la evaluación de la utilidad, la utilidad o el impacto de un modelo de IA desplegado es una actividad exclusivamente humana. ¿Es el modelo ético e imparcial? ¿Cuáles son las implicaciones sociales y sociales del modelo? ¿Cuáles son las consecuencias no deseadas del modelo? La evaluación del impacto más amplio del modelo en la práctica es una actividad exclusivamente humana con implicaciones muy reales para nuestro propio bienestar.
Si bien es probable que la integración de humanos de manera más deliberada en las aplicaciones de IA mejore las posibilidades de éxito, es importante tener en cuenta que esto también podría reducir el daño. Esto es particularmente cierto en el ámbito de la atención médica, donde las decisiones de vida o muerte se toman cada vez más en función de modelos de IA como los que desarrolló Google.
Por ejemplo, el sesgo y la equidad de los modelos de IA pueden tener consecuencias imprevistas para las personas de entornos desfavorecidos o subrepresentados. Esto se señaló en un estudio reciente que muestra un algoritmo utilizado para priorizar pacientes para trasplantes de riñón en el 33% de los pacientes negros derivados. Esto podría tener un enorme impacto en la salud de esos pacientes a escala nacional. Este estudio, y otros similares, han aumentado la conciencia sobre los sesgos algorítmicos.
A medida que la IA continúa convirtiéndose en parte de todo lo que hacemos, es importante recordar que nosotros, los usuarios y posibles beneficiarios, tenemos un papel vital que desempeñar en el proceso de ciencia de datos. Esto es importante para mejorar los resultados de una implementación de IA y para reducir el daño. También es importante comunicar el papel de los humanos a aquellos que esperan ingresar a la fuerza laboral de IA.
Ahora lee: