El gobierno de Rishi Sunak anunció el pasado 7 de junio la implementación de la primera cumbre de seguridad en inteligencia artificial. En dicho evento, a celebrarse durante el próximo otoño, la intervención del presidente estadounidense Joe Biden será decisiva, puesto que coordinará con el ministro Rishi Sunak la evaluación de los riesgos de seguridad y las medidas necesarias para su garantía en este campo computacional. El comunicado oficial de prensa puede leerse en la página oficial del Reino Unido.
Dicho documento anuncia que Rishi Sunak coordinará junto con Estados Unidos las medidas que los países del G7 adopten en torno a la «unificación de términos» y legislación en torno a la inteligencia artificial, en particular la que es capaz de generar texto, imágenes y otros medios a partir de indicaciones.
También lee: Eligen conservadores a Rishi Sunak como primer ministro de Reino Unido
En el texto se asegura que el gobierno británico considera una ventaja que su país se haya autoexiliado de la Comunidad Europea, pues «le permite actuar con mayor rapidez y agilidad frente a este mercado velozmente cambiante».
Es decir, el Reino Unido por el momento goza de «la rapidez y la agilidad» de posicionarse en sus propios términos ante este fenómeno tecnológico aún débilmente regulado, y lo hace sin las restricciones de la Comunidad Europea, pero admite el propósito de articularse con Estados Unidos para moldear el tamiz regulatorio internacional bajo el que las inteligencias artificiales operarán por lo que resta de la fase crítica de su desarrollo.
También lee: Adviertan que «perecerán» las empresas que no aprovechen la inteligencia artificial
Además, para sustentar las credenciales del Reino Unido para «convocar discusiones sobre el futuro de la inteligencia artificial», el El gobierno británico afirma que su país se encuentra en tercer lugar de liderazgo internacional en IA, solamente detrás de Estados Unidos y China.
Solo los gigantes de las IA tendrán voz y voto en la Cumbre Británica
Benji Edwards, editor especializado en IA del portal ars TÉCNICA hizo notar que la potencial lista de invitados a la cumbre (tomando en cuenta los actores mencionados por el gobierno británico) ha despertado reacciones negativas entre quienes propugnan por una evaluación académica de los riesgos de la IA que sea, en verdad, independiente de los solos intereses corporativos y mercantilistas.
Como ejemplo, cita el siguiente tuit de Rachel Coldicuttresponsable de la consultoría de investigación Careful Industries: «Este boletín de prensa para la Cumbre del Reino Unido de IA presenta a DeepMind, Anthropic, Palantir, Microsoft y Facultad, y ni una sola voz de la sociedad civil o de la Academia, y nadie con experiencia de primera mano en daños algorítmicos».
También lee: Elon Musk: existen posibilidades de que la inteligencia artificial destruya a la humanidad
El documento oficial británico informa que el 25 de mayo pasado, Anthropic, la compañía responsable de Claude, un chatbot similar a Chat GPT, inauguró sus primeras oficinas en Londres. Además, OpenAI, la firma responsable por Chat GPT, ha establecido una sociedad con la firma inglesa Facultad.
Ambas circunstancias tienen complacido a Rishi Sunak, al grado que algunos medios han informado de fuentes no oficiales que la actitud del ministro ante los gigantes de la IA ha llegado a la deferencia.
Interoperabilidad, en el corazón del Proceso de Hiroshima
Las naciones del G7, cuyos representantes se conservaron en Hiroshima, Japón, entre el 19 y el 21 de mayo pasado, se volvieron a encontrar el 30 de mayo en una reunión virtual denominada «Proceso de Hiroshima de la Inteligencia Artificial»enfocado en la interoperabilidad de las inteligencias artificiales generativas.
De acuerdo al portal especializado heavy.ia, «la interoperabilidad se refiere a la habilidad básica de diferentes productos o sistemas para conectar e intercambiar con prontitud información unos con otros», ya sea en la implementación o en el acceso, sin restricción».
Otras prioridades acordadas en el Proceso de Hiroshima de la Inteligencia Artificial son la detección oportuna de información falsa y la protección del copyright.
Los «otros» riesgos de la IAs
Mientras tantoactores con conocimiento de causa pero no encadenados al juego mercantil que ya florecen de las IAs, advierten de riesgos que se proyectan no tanto sobre el copyright o la información falsa, sino sobre la futura viabilidad de las sociedades humanas.
Geoffrey Hinton, psicólogo cognitivo, científico computacional y uno de los tres «padrinos» de la inteligencia artificial, quien renunció recientemente a Google para disponer de su libertad de expresión sobre los peligros de las inteligencias artificiales abiertas y generalistas, delcaró recientemente:
Siempre pensé que el cerebro humano era mejor que los modelos computacionales de que disponíamos. Y siempre pensé que al hacer los modelos más como el cerebro, los mejoraríamos. Pero la epifanía que tuve hace un par de meses fue que tal vez los modelos computacionales de que disponemos ahora son mejores que el cerebro. Y si ese es el caso, entonces tal vez en un lapso llegarán a ser mejores que nosotros. Así que esa idea de la superinteligencia, que se había proyectado para un futuro remoto, podría llegar mucho antes de lo esperado. (…) En cuanto a la atención de esa amenaza existencial, me parece que los gobiernos de Estados Unidos, China y Europa podrían coordinarse. Pero detener el desarrollo no me parece factible.
Geoffrey Hinton, en entrevista para Democracy Now! (2 de junio de 2023) El último comentario de la entrevista es en referencia a la carta abierta Pausar experimentos gigantes de IA: una carta abiertaque hasta el momento ha recabado 31, 810 firmas
ACLARACIÓN. Este documento se escribió sin el auxilio de chatbots, loros estocásticos o implantes neurales de aceleración cognitiva.