En una conferencia reciente sobre los desafíos de la inteligencia artificial, Christof Koch dejó en claro en sus comentarios que había mucho en juego: “A mediados de siglo, la humanidad estará rodeada de agentes autónomos ubicuos, flexibles y altamente inteligentes, y esto afectará profundamente a nuestra futuro, incluso si tenemos alguno «.
El Dr. Koch, que es el científico jefe del Programa Mindscope en el Instituto Allen para la ciencia del cerebro en Seattle, estaba hablando con un grupo de aproximadamente un centenar de académicos, diplomáticos y periodistas. La conferencia fue organizada por el Vaticano en la Cancelleria, un palacio renacentista del siglo XV en Roma, y se centró en el tema «El desafío de la inteligencia artificial para la sociedad humana y la idea de la persona humana».
Este fue el segundo evento en el Vaticano que se centró en la inteligencia artificial, comúnmente abreviado como AI Justo antes de que Italia entrara en un bloqueo a nivel nacional el año pasado, la Academia Pontificia para la Vida celebró un taller sobre AI en febrero de 2020. Este taller finalmente produjo una “Convocatoria for AI Ethics ”, que fue firmado por Microsoft, IBM, la Organización de las Naciones Unidas para la Alimentación y la Agricultura y el gobierno italiano, además de la Academia.
[Related: What are the dangers of artificial intelligence in our brave new world of self-driving cars?]
La conferencia de la semana pasada adoptó un enfoque interdisciplinario, destacando la necesidad de que la comunidad internacional, los gobiernos, la sociedad civil y las comunidades religiosas aborden la gran cantidad de cuestiones que rodean a la IA. Organizada por el secretario del Consejo Pontificio de Cultura, el obispo Paul Tighe, y el embajador de Alemania en la Santa Sede, Bernard Kotsch, la conferencia reunió a un panel de oradores de una variedad de campos académicos.
Al abordar la cuestión de si la IA puede producir conciencia, el Dr. Koch destacó el hecho de que, al menos en la mayor parte del mundo de habla inglesa, los filósofos que estudian la cognición piensan que las cosas (incluidas las máquinas) pueden considerarse inteligentes simplemente en virtud de lo que son capaces de hacer, independientemente de lo que realmente sean. Entonces, si una computadora fuera hipotéticamente capaz de hacer todo lo que puede hacer un cerebro humano, se consideraría «consciente». El Dr. Koch dijo que «esta es la visión dominante en Silicon Valley y en los medios».
Sin embargo, dijo que rechaza esta teoría y argumentó que incluso si una máquina imita el comportamiento consciente de un cerebro humano, todavía «no será consciente». Incluso si una computadora estuviera programada para ejecutar una simulación de la actividad cerebral de un humano hasta el punto de comportarse como un humano, dijo el Dr. Koch, aún sería una «falsa falsificación». Esto se debe a que, a diferencia de los humanos, las computadoras «no existen por sí mismas».
A diferencia de los humanos, las computadoras «no existen por sí mismas», dijo el Dr. Christof Koch.
Otro orador, Matthias Lutz-Bachmann, profesor de filosofía de la Universidad Goethe en Frankfurt, Alemania, examinó los desafíos filosóficos planteados por la IA para nuestra comprensión de la persona humana y preguntó qué papel puede desempeñar la IA en el futuro para las sociedades pluralistas modernas y la democracia. .
Habló sobre cómo la inteligencia artificial ya se está utilizando en países como Rusia y China para socavar la dignidad humana, incluso ayudando a los gobiernos a reprimir la libertad de expresión. En estas sociedades, dijo, “el orden normativo del estado de derecho democrático está en peligro, y la visión de George Orwell de 1984 se convierte en realidad «.
El Dr. Lutz-Bachman dijo que solo podemos abordar estos desafíos “bajo las condiciones estables de democracias bien organizadas y sistemas legales muy fuertes”, así como el derecho internacional para proteger los derechos humanos. «De lo contrario», dijo, «la realidad virtual de la IA desestabilizará las democracias nacionales».
De hecho, la Dra. Lutz-Bachman señaló cómo Internet ya se ha convertido en un «arma contra las democracias», incluso a través de la difusión de información errónea. «Internet, sus reglas y algoritmos, deben estar bajo control público legal para prevenir sus fuerzas destructivas», dijo.
Cuando la inteligencia artificial se utiliza para socavar la dignidad de los ciudadanos, “el orden normativo del estado de derecho democrático está en peligro, y la visión de George Orwell de 1984 se convierte en realidad «.
Otro orador, James Keenan, SJ, que enseña en Boston College, propuso utilizar el concepto de vulnerabilidad humana para abordar los desafíos planteados por la IA. “El contraste de vulnerabilidad no es el poder o la debilidad, sino la dominación”, dijo. similar al pecado original de la humanidad. “La tendencia humana a huir de estar a la imagen vulnerable de Dios conduce a su contraste, a su dominación”.
El padre Keenan dijo que en las discusiones éticas sobre la inteligencia artificial, es crucial tener en cuenta estas preguntas generales, especialmente cuando existe una tentación en la industria de la tecnología de centrarse principalmente en cómo la inteligencia artificial puede aumentar las ganancias.
Terminó su presentación cambiando el enfoque a los propios diseñadores de software de IA. «Estoy considerablemente preocupado por el dominio del diseñador, porque al igual que en la vida humana, el diseñador pasa por defecto más fácilmente al dominio que a la vulnerabilidad». Especialmente en el ámbito de la IA, dijo el padre Keenan, la sociedad debe tener cuidado con «la facilidad con la que surge el dominio en el horizonte humano».
Otro orador que profundizó en el debate sobre la IA y la ética fue Helen Alford, OP, egresada de la Universidad de Cambridge, quien estudió ingeniería antes de unirse a los dominicanos. Actualmente es profesora de economía y ética en la Pontificia Universidad de St. Thomas en Roma, vicedecana de su facultad de ciencias sociales y miembro de la Pontificia Academia de Ciencias Sociales.
Dado que estos sistemas “van a tener un gran impacto en la sociedad”, dijo la hermana Alford, “la pregunta es cómo nos aseguramos de que este impacto se oriente lo más posible hacia el bien …[rather] que lo contrario? «
Con una nota de esperanza en medio de las ansiedades de la conferencia sobre el dominio de las máquinas, enfatizó que los humanos todavía tienen capacidad para desarrollar la IA de una manera ética. “Estos sistemas están en nuestras manos”, dijo la hermana Alford. «Podemos dirigir la forma en que se desarrollan».