Saltar al contenido

A pesar de toda su sofisticación, la IA no es apta para tomar decisiones de vida o muerte. Inteligencia artificial (IA)

19 de julio de 2020

La inteligencia artificial está buscando las drogas para combatir el Covid-19. Permitió rastrear la pandemia y sintetizar la información sobre ella. Está diagnosticando a los pacientes, haciendo un triaje, e identificando a aquellos que necesitan cuidados intensivos antes de que su condición se deteriore.

Hay mucho bombo y platillo sobre el uso de la inteligencia artificial (AI) para combatir el coronavirus. Parte de ello está justificado. Su capacidad para examinar grandes cantidades de datos y reconocer patrones ha sido de gran valor. Parte del bombo es la franela. La IA no predijo la pandemia, como algunos afirman, antes de que los humanos la reconocieran. Afirmaciones exageradas, por ejemplo, sobre la exactitud de la IA en el diagnóstico del Covid-19, deberían ser motivo de sospecha, no de celebración.

Algunas de ellas son motivo de preocupación, como el uso de la IA para la vigilancia masiva. Y algunos aspectos de la pandemia han expuesto las limitaciones de la IA. Los algoritmos, como los utilizados por los minoristas en línea, entrenados en el comportamiento humano normal, ahora encuentran que el comportamiento de las personas ha cambiado completamente cuando se trata de compras o viajes, y a menudo están desconcertados.

Todo esto sugiere la necesidad de ser más claro sobre qué máquinas son buenas y en qué son buenos los humanos. El informático y filósofo Brian Cantwell Smith destila esa diferencia en la distinción entre lo que él llama «cálculo» y «juicio».

El cálculo es esencialmente un cálculo: la capacidad de manipular datos y reconocer patrones. El juicio, en cambio, se refiere a una forma de «pensamiento deliberativo, basado en el compromiso ético y la acción responsable, adecuado a la situación en la que se despliega».

Recomendado:  agente invisible | febrero 2022

El juicio, observa Smith, no es simplemente una forma de pensar en el mundo, sino que surge de una relación particular con el mundo que los humanos tienen y las máquinas no. Los humanos están encarnados e incrustados en el mundo. Somos capaces de reconocer el mundo como real y unificado, pero también de descomponerlo en objetos y fenómenos distintos. Podemos representar el mundo pero también apreciar la distinción entre representación y realidad. Y, lo más importante, los humanos poseen un compromiso ético con lo real por encima de la representación. Lo que es moralmente importante no es la imagen o la representación mental que tengo de ti, sino el hecho de que existes en el mundo. Un sistema con criterio debe, insiste Smith, no sólo ser capaz de pensar sino también de «preocuparse por lo que está pensando». Debe «importarle un comino». A los humanos les importa. A las máquinas no.

La IA puede ser capaz de clasificar a los pacientes debido a su capacidad de reconocer patrones que los humanos pueden pasar por alto, pero ninguna máquina tiene un compromiso ético con los pacientes como lo tienen los médicos y las enfermeras, para quienes no sólo importan los hechos o los patrones. También es que los pacientes poseen un valor y una dignidad que necesitan ser protegidos.

Los juicios humanos no son necesariamente buenos, ni los humanos siempre actúan con criterio. Pero todos tienen la capacidad de hacerlo. Por eso consideramos a los humanos, pero no a las máquinas, como moralmente responsables de sus actos.

Recomendado:  ¿Por qué los precios de la gasolina son tan altos? Estos oscuros comerciantes tienen parte de culpa | Petróleo

La distinción entre el cálculo y el juicio es importante para evaluar no sólo a las máquinas sino también a los humanos. En esta pandemia, una de las respuestas clave de los ministros del gobierno, cuando se enfrentan a cuestiones políticas difíciles, ha sido sugerir que simplemente «siguen la ciencia». No sólo no hay ni una sola «ciencia» que seguir, y que mucho de lo que sabemos sobre el coronavirus está lleno de incertidumbre, sino que incluso si la ciencia fuera clara, aún así no podríamos abjurar del juicio.

Tomemos el debate sobre la reapertura de las escuelas. Supongamos que supiéramos con certeza la probabilidad de que los niños se infecten, y de que infecten a otros, y cuál es exactamente el número R en cualquier parte del país. La decisión de reabrir o no las escuelas seguiría dependiendo de los juicios políticos y morales sobre cómo equilibrar el riesgo de una mayor infección con el riesgo de que los niños pierdan la educación y de que los desfavorecidos se vean aún más perjudicados.

La mejor política pública se basa en los hechos, pero también requiere que elijamos entre demandas que compiten entre sí, y que decidamos cómo encajan éstas en los diversos compromisos éticos y políticos. Puede haber un buen o mal juicio, pero no se puede pretender que no haya juicio.

La línea «estamos siguiendo la ciencia» sugiere que la elaboración de políticas es una cuestión meramente de cálculo – de hacer cálculos a partir de los datos dados – más que de juicio. También sugiere que una computadora, más que un humano, sería la mejor opción para liderar la lucha contra Covid-19.

Recomendado:  Trazando un curso seguro a través de un entorno altamente incierto -- ScienceDaily

Las máquinas no pueden pensar como los humanos. Los humanos no deben actuar como máquinas. Incluso los políticos.