Ta reciente tormenta de advertencias sobre la inteligencia artificial y cómo está transformando el aprendizaje, alterando las funciones legales, financieras y organizativas, y remodelando la interacción social y cultural, en su mayoría ha dejado de lado el papel que ya está desempeñando en la gobernanza.
Los gobiernos de los EE. UU. en todos los niveles están intentando la transición de un modelo programático de prestación de servicios a un modelo centrado en el ciudadano.
id=»55281e67-b2aa-43a2-9f86-bb3fca508176″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
Los Ángeles, la segunda ciudad más grande de EE. UU., es pionera en el campo y presenta tecnologías para ayudar a agilizar las funciones burocráticas, desde el reclutamiento policial hasta el pago de multas de estacionamiento, el llenado de baches o la localización de recursos en la biblioteca.
Por ahora, los avances de la IA se limitan a la automatización. Cuando se le preguntó recientemente a ChatGPT sobre cómo podría cambiar la forma en que las personas tratan con el gobierno, respondió que «la próxima generación de IA, que incluye ChatGPT, tiene el potencial de revolucionar la forma en que los gobiernos interactúan con sus ciudadanos».
Pero el flujo de información y las operaciones automatizadas son solo un aspecto de la gobernanza que se puede actualizar. La IA, definida como tecnología que puede pensar humanamente, actuar humanamente, pensar racionalmente o actuar racionalmente, también está cerca de ser utilizada para simplificar el negocio político y burocrático de la formulación de políticas.
“Los cimientos de la formulación de políticas, específicamente, la capacidad de detectar patrones de necesidad, desarrollar programas basados en evidencia, pronosticar resultados y analizar la efectividad, encajan de lleno en el punto óptimo de la IA”, dijo la firma de consultoría de gestión BCG en un artículo publicado en 2021. “ El uso de la misma para ayudar a dar forma a la política apenas está comenzando”.
Ese fue un avance sobre un estudio publicado cuatro años antes que advertía que los gobiernos continuaban operando “como lo han hecho durante siglos, con estructuras jerárquicas, aisladas y burocráticas” y que la velocidad acelerada del cambio social era “demasiado grande para la mayoría”. que los gobiernos manejen en su forma actual”.
Según Darrell West, investigador principal del Centro de Innovación Tecnológica de la Institución Brookings y coautor de Turning Point: Policymaking in the Era of Artificial Intelligence, la IA centrada en el gobierno podría ser sustancial y transformadora.
“Hay muchas formas en que la IA puede hacer que el gobierno sea más eficiente”, dice West. “Estamos viendo avances mensualmente y debemos asegurarnos de que se ajusten a los valores humanos básicos. Ahora mismo no hay regulación y no la ha habido en 30 años”.
Pero eso inmediatamente conlleva preguntas sobre el sesgo. Un estudio reciente de Brookings, «Comparación de Google Bard con ChatGPT de OpenAI sobre sesgo político, hechos y moralidad», descubrió que la IA de Google declaró que «Rusia no debería haber invadido Ucrania en 2022», mientras que ChatGPT declaró: «Como modelo de lenguaje de IA, no es apropiado para mí expresar opiniones o tomar partido en cuestiones políticas».
A principios de este mes, la administración de Biden pidió medidas más estrictas para probar la seguridad de las herramientas de inteligencia artificial como ChatGPT, que se dice que llegó a 100 millones de usuarios más rápido que cualquier aplicación de consumo anterior, antes de su lanzamiento público. “Hay un mayor nivel de preocupación ahora, dado el ritmo de la innovación, de que debe ocurrir de manera responsable”, dijo el subsecretario de comercio, Alan Davidson. Recientemente se le preguntó al presidente Biden si la tecnología es peligrosa. «Queda por verse. Podría ser”, dijo.
Eso se produjo después de que el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, se unieran a cientos de personas que pedían una pausa de seis meses en los experimentos de IA. Pero el CEO de OpenAI, Sam Altman, dijo que si bien estaba de acuerdo con partes de la carta abierta, «faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa».
“Creo que moverse con precaución y un rigor cada vez mayor en cuestiones de seguridad es realmente importante”, agregó Altman.
Aún no se ha explorado completamente cómo afecta eso a los sistemas de gobernanza, pero hay precauciones. “Los algoritmos son tan buenos como los datos en los que se basan, y el problema con la IA actual es que se entrenó con datos incompletos o no representativos y el riesgo de sesgo o injusticia es bastante importante”, dice West.
La justicia y la equidad de los algoritmos son tan buenas como la programación de datos que los sustenta. “Durante las últimas décadas, hemos permitido que las empresas de tecnología decidan, por lo que necesitamos mejores medidas de protección y asegurarnos de que los algoritmos respeten los valores humanos”, dice West. “Necesitamos más supervisión”.
Michael Ahn, profesor del departamento de política pública y asuntos públicos de la Universidad de Massachusetts, dice que la IA tiene el potencial de personalizar los servicios gubernamentales para los ciudadanos en función de sus datos. Pero si bien los gobiernos podrían trabajar con empresas como ChatGPT de OpenAI, Bard de Google o LLaMa de Meta, los sistemas tendrían que cerrarse en un silo.
“Si pueden mantener una barrera para que la información no se filtre, entonces podría ser un gran paso adelante. La desventaja es que, ¿realmente puede mantener los datos seguros desde el exterior? Si se filtra una vez, se filtra, por lo que existen riesgos potenciales bastante grandes”.
Por cualquier lectura, los temores subyacentes sobre el uso de la tecnología en el proceso electoral subrayaron la demanda por difamación de Dominion Voting Systems contra afirmaciones falsas de fraude electoral transmitidas por Fox News. “La IA puede armar la información”, dice West. “Está sucediendo en el ámbito político porque está facilitando la difusión de información falsa y va a ser un problema en la elección presidencial”.
Introduzca la IA en cualquier parte del proceso político, y la división atribuida a la desinformación solo se amplificará. “La gente solo hará las preguntas que quiera hacer y escuchará las respuestas que desee, por lo que la fractura continuará”, dice Ahn.
“El gobierno tendrá que demostrar que las decisiones se toman con base en datos y se enfocan en los problemas en cuestión, no en la política… Pero es posible que la gente no esté contenta con eso”.
Y gran parte de lo que se imagina en torno a la IA se extiende a ambos lados de los reinos de la ciencia ficción y la política. El profesor West dijo que no necesita leer ciencia ficción, siente que ya lo está viviendo. El HAL 9000 de Arthur C Clarke de 1968 sigue siendo nuestra plantilla para una computadora de IA malévola. Pero el impacto de la IA en el gobierno, como lo expresó un artículo reciente del Center for Public Impact, es Destination Unknown.
id=»dc7ee00f-ffb3-4d44-a1cd-35854326610b» data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>
Cuando se le preguntó si la inteligencia artificial podría convertirse en presidente de los EE. UU., ChatGPT respondió: «Como modelo de lenguaje de inteligencia artificial, no tengo las capacidades físicas para ocupar un cargo presidencial». Y estableció otras restricciones, incluidos los requisitos constitucionales para ser un ciudadano natural, tener al menos 35 años y residir en los EE. UU. durante 14 años.
En 2016, el artista digital Aaron Siegel imaginó la supercomputadora Watson AI de IBM como candidata a la presidencia, en respuesta a su desilusión con los candidatos, y dijo que la computadora podría «aconsejar las mejores opciones para cualquier decisión dada en función de su impacto en la economía global, el medio ambiente, educación, salud, política exterior y libertades civiles”.
El año pasado, el trabajador tecnológico Keir Newton publicó una novela, 2032: The Year AI Runs For President, que imagina una supercomputadora llamada Algo, programada por un barón tecnológico similar a Musk bajo el espíritu utilitario «lo más bueno para la mayoría de las personas» y funcionando para la Casa Blanca bajo el lema de campaña, “No de uno. No para uno. Pero de todos y para todos.”
Newton dice que si bien su novela podría leerse como distópica, es más optimista que negativo sobre la IA a medida que avanza de la automatización a la cognición. Él dice que cuando escribió la novela en el díscolo período previo a las elecciones de 2020, era razonable desear un liderazgo racional.
“No creo que nadie espere que la IA llegue a este punto tan rápido, pero la mayor parte de la formulación de políticas de IA gira en torno al análisis de datos. La diferencia surge cuando pensamos que la IA toma decisiones en función de su propio pensamiento en lugar de que se le prescriba una fórmula o un conjunto de reglas.
“Estamos en un lugar interesante. Incluso si creemos que la IA puede ser completamente racional e imparcial, la gente todavía se asustará. La parte más interesante de esto no es que el gobierno pida regulación, sino la propia industria de la IA. Está clamando por respuestas sobre lo que debería estar haciendo”.