Enfrentarse a un algoritmo fue una batalla diferente a cualquier otra que Larkin Seiler había enfrentado.
Debido a su parálisis cerebral, el hombre de 40 años, que trabaja en una empresa de ingeniería ambiental y le encanta asistir a juegos deportivos de casi cualquier tipo, depende de su persona de apoyo a domicilio para que le ayude con cosas que la mayoría de la gente da por sentado, como comidas y baños.
Todas las mañanas, el trabajador de apoyo de Seiler lo levanta de la cama, lo coloca en su silla de ruedas y lo ayuda a vestirse para el próximo día laboral. El trabajador regresa a la hora del almuerzo para ayudar con el almuerzo y para ir al baño, luego regresa nuevamente por la noche.
Pero cuando el estado natal de Seiler, Idaho, creó un sistema automatizado, un algoritmo, para distribuir la asistencia de atención domiciliaria para personas con discapacidades en 2008, redujo su presupuesto de atención domiciliaria a la mitad. Se enfrentó a no poder siquiera usar el baño a intervalos razonables.
“Fue horrible”, dijo Seiler, quien temía que lo forzaran a ingresar en una institución. “Ni siquiera puedo levantarme por la mañana si no tengo ayuda. Esto me quitaría toda mi libertad e independencia «.
Al igual que Seiler, miles de discapacitados y personas mayores en más de una docena de estados han tenido que luchar contra las decisiones tomadas por un algoritmo para obtener los servicios de apoyo que necesitan para permanecer en sus hogares en lugar de ser institucionalizados.
Los recortes han afectado a las personas mayores de bajos ingresos y a las personas con discapacidades en Pensilvania, Iowa, Nueva York, Maryland, Nueva Jersey, Arkansas y otros estados, después de que los algoritmos se convirtieran en árbitros de cómo se asignaba su atención médica domiciliaria, reemplazando los juicios que solían ser principalmente hecho por enfermeras y trabajadores sociales.
En Washington DC, «en el peor de los casos, hemos tenido clientes que realmente murieron, porque sus servicios fueron interrumpidos y no estaban recibiendo la atención que necesitaban», dijo Tina Smith Nelson, abogada supervisora del Asesor Legal para Ancianos de AARP sobre los efectos de un nuevo sistema algorítmico introducido en 2018. Más de 300 personas mayores han tenido que presentar apelaciones administrativas después de que su atención domiciliaria fue cortada por un nuevo sistema algorítmico.
“Creo que, como sociedad, nos adentramos en un territorio inquietante cuando confiamos únicamente en algoritmos y datos para tomar determinaciones sobre las necesidades de atención médica”, dijo Nelson. «Reducimos la humanidad de una persona a un número».
Kevin De Liban, abogado de Legal Aid of Arkansas, comenzó a luchar contra los recortes después de que los pacientes gravemente discapacitados comenzaron a llamar «en masa» en 2016. «El sufrimiento humano fue inmenso», dijo. “Tenías gente tirada en sus propios desperdicios. Había gente con úlceras de decúbito porque no había nadie allí para curarlas. Había gente encerrada, gente que se saltaba las comidas. Fue simplemente un sufrimiento humano incalculable «.
Para Tammy Dobbs, residente de Arkansas, la vida se volvió casi insoportable después de que su estado introdujo un algoritmo que diezmó la cantidad de atención que recibió en 2016.
Dobbs, de 61 años, necesita ayuda para sentarse en su silla de ruedas y no puede usar las manos debido a una parálisis cerebral, pero de repente nadie estaba allí para ayudarla a usar el baño.
“Las cosas fueron difíciles porque tuve que programarme para ir al baño en ciertos momentos”, dijo Dobbs. “Tuve que posponer el baño todos los días porque no tenía tiempo. Simplemente fue malo «.
La situación refleja una realidad que afecta cada vez más a todos los usuarios de la atención médica estadounidense: se están implementando algoritmos, que van desde simples gráficos si-entonces hasta sofisticados sistemas de inteligencia artificial, para tomar todo tipo de decisiones sobre quién recibe atención.
Los funcionarios del gobierno han promocionado los sistemas algorítmicos de toma de decisiones como una forma de asegurarse de que los beneficios se asignen de manera equitativa, eliminen los prejuicios humanos y eliminen el fraude.
Pero los defensores dicen que hacer que los programas de computadora decidan cuánta ayuda pueden obtener las personas vulnerables es a menudo arbitrario y, en algunos casos, francamente cruel.
El problema subyacente, dicen los expertos, es que ni los estados ni el gobierno federal proporcionan fondos suficientes para permitir que las personas que necesitan asistencia médica permanezcan seguras en sus hogares, aunque estos programas generalmente terminan siendo mucho menos costosos que poner a las personas en instituciones. Los algoritmos recurren a dividir las migajas disponibles.
La experiencia de Dobbs en Arkansas expuso la toma de decisiones arbitraria que puede afectar la atención médica de millones de estadounidenses cuando se emplean algoritmos sin un escrutinio adecuado.
Durante años, había recibido ocho horas diarias de ayuda de un asistente de hogar para todo, desde levantarse de la cama hasta comer.
A pesar de su parálisis cerebral, Dobbs logró vivir sola y mantenerse activa escribiendo poesía, jardinería y pesca.
Pero, en 2016, un evaluador de necesidades de atención médica se presentó con una computadora portátil y escribió las respuestas de Dobbs a una larga batería de preguntas. Luego consultó la computadora e informó superficialmente a Dobbs que solo recibiría unas cuatro horas diarias de ayuda.
“Empecé a volverme loco”, dijo Dobbs, cuya historia fue reportada previamente por Verge. «Dije ‘¡No, no, no puedo hacer eso!'»
“Pero el entrevistador dijo: ‘Lo siento, eso es lo que me muestra la computadora’”, dijo.
Dobbs dijo que temía terminar institucionalizada.
“He conocido a personas que fueron ingresadas en un asilo de ancianos y he visto cómo las trataron y no voy a ir”, dijo.
No fue hasta que De Liban comenzó a desentrañar el nuevo programa de computadora detrás de los cortes de cuidado que quedó claro que un algoritmo estaba en juego.
Cada año, una enfermera venía a la casa de cada paciente para administrar una evaluación computarizada: 286 preguntas que cubrían todo, desde la salud mental hasta cuánta ayuda necesitan en las actividades diarias como comer o hacer sus finanzas personales.
Luego, una herramienta algorítmica clasificó a los pacientes en varios niveles de necesidad. A cada nivel se le asignó un número estándar de horas de atención.
El equipo legal de De Liban reveló fallas con el algoritmo en la corte. Resultó, dijo De Liban, que los cálculos no habían tenido en cuenta cosas como si un paciente tenía parálisis cerebral o diabetes.
Un solo punto en el sistema de puntuación, por ejemplo, un punto agregado porque el paciente había tenido fiebre en los últimos tres días o tenía úlceras por presión abiertas, podría marcar una gran diferencia en la cantidad de horas que recibió durante todo el año.
Otros problemas se debieron a errores de los evaluadores. En un caso, una persona con doble amputación fue marcada como sin problemas de movilidad, porque podía moverse en silla de ruedas.
“A medida que funcionaba el algoritmo, a nuestros ojos era bastante irracional”, dijo De Liban.
Los funcionarios del estado de Arkansas no respondieron a una solicitud de comentarios.
El diseñador del algoritmo, el profesor emérito de la Universidad de Michigan Brant Fries, reconoció que el sistema no está diseñado para calcular cuántas horas de atención realmente necesitan las personas. En cambio, dijo que ha sido científicamente calibrado para asignar equitativamente los escasos recursos.
“Estamos diciendo que tomaremos el tamaño del pastel y lo dividiremos de manera científica, de la manera más equitativa que podamos, para las personas involucradas”, explicó. «… No estamos diciendo que el tamaño del pastel sea correcto».
Fries, quien comenzó a desarrollar el algoritmo hace más de 30 años, reconoció que los programas no abordan lo que muchos ven como una infrautilización crónica de los Estados Unidos en hogares de ancianos y atención domiciliaria para poblaciones de bajos ingresos, ancianos y discapacitados.
“Si no tienes suficientes recursos, entonces estas personas no obtendrán suficiente dinero y tal vez estarán con ropa sucia, pero también lo harán todos los demás”, dijo. “Una viruela en su casa si no está brindando suficiente atención. Pero sea cual sea el dinero, lo dividiré de manera más equitativa «.
Después de años de batallas judiciales, el uso de Arkansas del sistema algorítmico finalmente fue descartado en 2018. Un fallo de la corte suprema estatal dijo que estaba causando a los participantes un «daño irreparable», y que «no se han bañado, se han perdido tratamientos y vueltas,» enfrentaron un mayor riesgo de caídas, se han vuelto más aislados y han sufrido un empeoramiento de sus condiciones médicas como resultado de su falta de atención ”.
Así que Dobbs ha podido recibir la atención que necesita para quedarse en la alegre casa de tablillas blancas que alquila en un vecindario boscoso de Cherokee Village, Arkansas.
“Hay problemas para lograr que las máquinas tomen decisiones justas sobre la vida de las personas”, dijo. “Es solo una computadora. No ve nuestras circunstancias. No ve al individuo «.
Pero en todo el país, la batalla continúa.
En Washington DC, Pensilvania e Iowa, los abogados de servicios legales están plagados de llamadas de personas mayores quejándose de que han perdido su atención debido a los algoritmos adoptados recientemente en esos estados. En unos pocos casos de Pensilvania, los pacientes se quedaron con tan poca ayuda que hubo que llamar a los servicios de protección para asegurarse de que no sufrieran negligencia, según Laval Miller-Wilson, director del Proyecto de Ley de Salud de Pensilvania.
En Missouri, los intentos de recabar información del público para desarrollar un nuevo sistema se han prolongado durante años, y los defensores de los discapacitados temen que miles de personas pierdan la elegibilidad. Después de años de trabajo en el desarrollo de un algoritmo para decidir quién es elegible para la atención domiciliaria, el estado ha decidido esencialmente abonar a los clientes existentes durante los próximos dos años, dijo Melanie Highland, directora de servicios para personas mayores y discapacitados del estado. Pero reconoció que algunos pueden terminar perdiendo la elegibilidad para los servicios después de este período.
Los defensores de las personas con discapacidades dicen que la decisión de cuidado algorítmicamente no tiene en cuenta las sutilezas de las situaciones de las personas. Les preocupa que las decisiones se tomen en una caja negra y los pacientes no tengan forma de saber por qué, lo que hace que las decisiones sean difíciles de impugnar.
“La idea de una máquina que esté libre de los escrúpulos personales de las personas puede parecer atractiva”, dijo Lydia XZ Brown, abogada y activista por los derechos de las personas con discapacidad del Centro para la Democracia y la Tecnología, que también es autista. «Sin embargo, lo que la gente olvida es que cuando uno confía en una máquina, siempre está confiando en que las personas que diseñan la máquina y las personas que la utilizan actúan de manera adecuada, ética o responsable».
El algoritmo que cortó la atención de Seiler en 2008 fue declarado inconstitucional por la corte en 2016, pero Seiler y otros activistas de discapacidades todavía están involucrados en un proceso supervisado por la corte que intenta reemplazarlo.
Y desde que comenzó el caso judicial, el presupuesto de atención domiciliaria de Seiler ha vuelto a su nivel original y se ha congelado allí. Por ahora, puede contratar la asistencia que necesita. Le preocupa que su situación de vida pueda verse amenazada una vez más por el nuevo algoritmo que Idaho está desarrollando.
«La idea de tener que ir a un hogar de ancianos es la peor», dijo. «Es una pesadilla.»
-
The Guardian desea agradecer a Elizabeth Edwards del Programa Nacional de Derecho de la Salud, Richard Eppink de Idaho ACLU, Michele Gilman de la Universidad de Baltimore y otros profesionales de la asistencia jurídica quien ayudó con el reportaje de esta historia.