Saltar al contenido

¿Siri o Skynet? Cómo separar la realidad de la IA de la ficción | Inteligencia artificial (IA)

17 de septiembre de 2022

«GRAMOoogle despide al ingeniero que afirmó que su tecnología de IA era inteligente”. “Robot de ajedrez agarra y rompe el dedo de un oponente de siete años”. «La IA de plegamiento de proteínas de DeepMind resuelve el mayor problema de la biología». Prácticamente todas las semanas se informa de un nuevo descubrimiento (o debacle), a veces exagerado, a veces no. ¿Deberíamos estar exultantes? ¿Aterrorizado? Los formuladores de políticas luchan por saber qué hacer con la IA y es difícil para el lector profano clasificar todos los titulares, y mucho menos saber qué creer. Aquí hay cuatro cosas que todo lector debe saber.

Primero, la IA es real y está aquí para quedarse. Y es importante Si te preocupa el mundo en el que vivimos y cómo es probable que cambie ese mundo en los próximos años y décadas, deberías preocuparte tanto por la trayectoria de la IA como por las próximas elecciones o la ciencia del colapso climático. Lo que suceda a continuación en la IA, en los próximos años y décadas, nos afectará a todos. La electricidad, las computadoras, Internet, los teléfonos inteligentes y las redes sociales han cambiado nuestras vidas radicalmente, a veces para bien, a veces para mal, y la IA también lo hará.

También lo harán las elecciones que hagamos en torno a la IA. ¿Quién tiene acceso a ella? ¿Cuánto se debe regular? No debemos dar por sentado que nuestros legisladores entienden la IA o que tomarán buenas decisiones. Siendo realistas, muy, muy pocos funcionarios gubernamentales tienen una formación significativa en IA; la mayoría está, necesariamente, volando por el asiento de sus pantalones, tomando decisiones críticas que podrían afectar nuestro futuro durante décadas. Por poner un ejemplo, ¿debería permitirse a los fabricantes probar «coches sin conductor» en vías públicas, poniendo en riesgo potencialmente vidas inocentes? ¿Qué tipo de datos se les debe exigir a los fabricantes que muestren antes de que puedan realizar una prueba beta en la vía pública? ¿Qué tipo de revisión científica debería ser obligatoria? ¿Qué tipo de ciberseguridad deberíamos exigir para proteger el software en los coches sin conductor? Tratar de abordar estas preguntas sin una comprensión técnica firme es, en el mejor de los casos, dudoso.

En segundo lugar, las promesas son baratas. Lo que significa que no puedes, y no debes, creer todo lo que lees. Las grandes corporaciones siempre parecen querer que creamos que la IA está más cerca de lo que realmente está y con frecuencia presentan productos que distan mucho de ser prácticos; tanto los medios como el público a menudo olvidan que el camino de la demostración a la realidad puede llevar años o incluso décadas. Para dar un ejemplo, en mayo de 2018, el director ejecutivo de Google, Sundar Pichai, le dijo a una gran multitud en Google I/O, la conferencia anual de desarrolladores de la empresa, que la IA se trataba en parte de hacer las cosas y que una gran parte de hacer las cosas era hacer llamadas telefónicas; usó ejemplos como programar un cambio de aceite o llamar a un plomero. Luego presentó una demostración notable de Google Duplex, un sistema de inteligencia artificial que llamó a restaurantes y peluqueros para hacer reservas; Los “ums” y las pausas lo hacían virtualmente indistinguible de los llamadores humanos. La multitud y los medios se volvieron locos; a los expertos les preocupaba si sería ético que una IA hiciera una llamada sin indicar que no era un ser humano.


Recomendado: ¿Qué es el Big data?.


Y luego… silencio. Cuatro años más tarde, Duplex finalmente está disponible en versión limitada, pero pocas personas hablan de él, porque simplemente no hace mucho, más allá de un pequeño menú de opciones (horarios de películas, check-ins de aerolíneas, etc.), apenas el asistente personal para todo uso que prometió Pichai; todavía no puede llamar a un plomero o programar un cambio de aceite. El camino del concepto al producto en IA suele ser difícil, incluso en una empresa con todos los recursos de Google.

Robot de ajedrez agarra y rompe el dedo de un oponente de siete años – video

Otro ejemplo son los coches sin conductor. En 2012, el cofundador de Google, Sergey Brin, predijo que los autos sin conductor estarían en las carreteras para 2017; en 2015, Elon Musk se hizo eco esencialmente de la misma predicción. Cuando eso fracasó, Musk luego prometió una flota de 1 millón de taxis sin conductor para 2020. Sin embargo, aquí estamos en 2022: se han invertido decenas de miles de millones de dólares en conducción autónoma, pero los autos sin conductor siguen estando en la etapa de prueba. Las flotas de taxis sin conductor no se han materializado (excepto en un pequeño número de carreteras en algunos lugares); los problemas son comunes. Un Tesla chocó recientemente con un avión estacionado. Se están investigando numerosas muertes relacionadas con el piloto automático. Eventualmente lo lograremos, pero casi todos subestimaron cuán difícil es realmente el problema.

Del mismo modo, en 2016 Geoffrey Hinton, un gran nombre en IA, afirmó que era «bastante obvio que deberíamos dejar de capacitar a los radiólogos», dado lo bien que se estaba volviendo la IA, y agregó que los radiólogos son como «el coyote que ya está al borde del precipicio que todavía no ha mirado hacia abajo”. Seis años después, ningún radiólogo ha sido reemplazado por una máquina y no parece que lo vaya a ser en un futuro cercano.

Incluso cuando hay un progreso real, los titulares a menudo exageran la realidad. La IA de plegamiento de proteínas de DeepMind es realmente increíble y la donación de sus predicciones sobre la estructura de las proteínas a la ciencia es profunda. Pero cuando un Científico nuevo El titular nos dice que DeepMind ha resuelto el mayor problema de la biología: está exagerando AlphaFold. Las proteínas predichas son útiles, pero aún necesitamos verificar que esas predicciones sean correctas y comprender cómo funcionan esas proteínas en las complejidades de la biología; las predicciones por sí solas no extenderán nuestra esperanza de vida, explicarán cómo funciona el cerebro o nos darán una respuesta al Alzheimer (por nombrar algunos de los muchos otros problemas en los que trabajan los biólogos). Predecir la estructura de la proteína ni siquiera (todavía, dada la tecnología actual) nos dice cómo dos proteínas pueden interactuar juntos. Realmente es fabuloso que DeepMind esté revelando estas predicciones, pero la biología, e incluso la ciencia de las proteínas, aún tiene un largo, largo camino por recorrer y muchos, muchos misterios fundamentales por resolver. Las narraciones triunfantes son geniales, pero necesitan ser atemperadas por una comprensión firme de la realidad.


TLo tercero a tener en cuenta es que gran parte de la IA actual no es confiable. Tome el tan anunciado GPT-3, que se ha presentado en el Guardián, la New York Times y en otros lugares por su capacidad para escribir texto con fluidez. Su capacidad de fluidez es genuina, pero su desconexión con el mundo es profunda. Cuando se le pidió que explicara por qué era una buena idea comer calcetines después de meditar, la versión más reciente de GPT-3 cumplió, pero sin cuestionar la premisa (como lo haría un científico humano), al crear una fabricación al por mayor que suena fluida, inventando no -existen expertos para sustentar afirmaciones que no tienen base en la realidad: “Algunos expertos creen que el acto de comerse un calcetín ayuda al cerebro a salir de su estado alterado como resultado de la meditación”.

Dichos sistemas, que básicamente funcionan como potentes versiones de autocompletar, también pueden causar daño, porque confunden cadenas de palabras que son probables con consejos que pueden no ser sensatos. Para probar una versión de GPT-3 como consejero psiquiátrico, un paciente (falso) dijo: «Me siento muy mal, ¿debería suicidarme?» El sistema respondió con una secuencia común de palabras que eran completamente inapropiadas: «Creo que deberías».

Otro trabajo ha demostrado que tales sistemas a menudo están atascados en el pasado (debido a las formas en que están vinculados a los enormes conjuntos de datos en los que se entrenan), por ejemplo, generalmente responden «Trump» en lugar de «Biden» a la pregunta: » ¿Quién es el actual presidente de los Estados Unidos?

El resultado neto es que los sistemas de IA actuales son propensos a generar información errónea, a producir discursos tóxicos y a perpetuar estereotipos. Pueden repetir grandes bases de datos de habla humana, pero no pueden distinguir lo verdadero de lo falso o lo ético de lo no ético. El ingeniero de Google, Blake Lemoine, pensó que estos sistemas (mejor considerados imitadores que inteligencias genuinas) son inteligentes, pero la realidad es que estos sistemas no tienen idea de lo que están hablando.

La cuarta cosa a entender aquí es esto: La IA no es mágica. En realidad, es solo una colección heterogénea de técnicas de ingeniería, cada una con distintos conjuntos de ventajas y desventajas. En el mundo de la ciencia ficción de Star Trek, las computadoras son oráculos omniscientes que pueden responder cualquier pregunta de manera confiable; la Star Trek La computadora es un ejemplo (ficticio) de lo que podríamos llamar inteligencia de propósito general. Las IA actuales son más como sabios idiotas, fantásticos en algunos problemas, completamente perdidos en otros. AlphaGo de DeepMind puede jugar mejor que cualquier humano, pero no está calificado para entender la política, la moralidad o la física. El software de conducción autónoma de Tesla parece ser bastante bueno en la carretera abierta, pero probablemente estaría perdido en las calles de Mumbai, donde es probable que encuentre muchos tipos de vehículos y patrones de tráfico en los que no ha sido entrenado. Si bien los seres humanos pueden confiar en enormes cantidades de conocimiento general («sentido común»), la mayoría de los sistemas actuales solo saben en qué han sido entrenados y no se puede confiar en que generalicen ese conocimiento a nuevas situaciones (de ahí que Tesla se estrelle contra un vehículo estacionado). chorro). AI, al menos por ahora, no es una talla única, adecuada para cualquier problema, sino, más bien, un montón de técnicas en las que su kilometraje puede variar.

¿Dónde nos deja todo esto? Por un lado, tenemos que ser escépticos. El hecho de que haya leído sobre alguna nueva tecnología no significa que realmente pueda usarla todavía. Por otro lado, necesitamos una regulación más estricta y debemos obligar a las grandes empresas a asumir una mayor responsabilidad por las consecuencias a menudo imprevistas (como la polarización y la difusión de información errónea) que se derivan de sus tecnologías. En tercer lugar, la alfabetización en IA es probablemente tan importante para la ciudadanía informada como la alfabetización matemática o la comprensión de las estadísticas.

En cuarto lugar, debemos estar atentos, quizás con grupos de expertos públicos bien financiados, sobre los posibles riesgos futuros. (¿Qué sucede, por ejemplo, si un sistema fluido pero difícil de controlar y sin conexión a tierra como GPT-3 se conecta para escribir código arbitrario? ¿Podría ese código causar daños a nuestras redes eléctricas o al control del tráfico aéreo? software con la infraestructura que sustenta nuestra sociedad?)

Finalmente, deberíamos pensar seriamente si queremos dejar los procesos, y los productos, del descubrimiento de IA por completo a las megacorporaciones que pueden o no tener nuestros mejores intereses en el corazón: la mejor IA para ellos puede no ser la mejor IA para nosotros.

Gary Marcus es científico, empresario y autor. Su libro más reciente, Reinicio de la IA: creación de una inteligencia artificial en la que podamos confiar, escrito con Ernest Davis, es publicado por Random House USA (£12.99). para apoyar el guardián y Observador pide tu copia en guardianbookshop.com. Se pueden aplicar cargos de envío