El Reino Unido debería prohibir a los desarrolladores de tecnología trabajar en herramientas avanzadas de inteligencia artificial a menos que tengan una licencia para hacerlo, dijo Labor.
Los ministros deberían introducir reglas mucho más estrictas sobre las empresas que entrenan sus productos de IA en grandes conjuntos de datos del tipo utilizado por OpenAI para construir ChatGPT, dijo a The Guardian Lucy Powell, portavoz digital de Labour.
Sus comentarios se producen en medio de un replanteamiento en la parte superior del gobierno sobre cómo regular el rápido mundo de la IA, con el primer ministro, Rishi Sunak, reconociendo que podría representar una amenaza «existencial» para la humanidad.
Uno de los asesores del gobierno en inteligencia artificial también dijo el lunes que la humanidad podría tener solo dos años antes de que la IA pueda burlar a las personas, la última de una serie de advertencias sobre la amenaza que representa la tecnología de rápido desarrollo.
Powell dijo: “Mi verdadero punto de preocupación es la falta de regulación de los grandes modelos de lenguaje que luego se pueden aplicar a una variedad de herramientas de IA, ya sea que gobiernen cómo se construyen, cómo se administran o cómo se controlan. ”
Ella sugirió que la IA debería ser autorizada de manera similar a las medicinas o la energía nuclear, las cuales están gobernadas por organismos gubernamentales independientes. “Ese es el tipo de modelo en el que deberíamos estar pensando, donde tienes que tener una licencia para construir estos modelos”, dijo. “Estos me parecen buenos ejemplos de cómo se puede hacer esto”.
El gobierno del Reino Unido publicó un libro blanco sobre IA hace dos meses, que detallaba las oportunidades que la tecnología podría brindar, pero decía relativamente poco sobre cómo regularla.
Desde entonces, una variedad de desarrollos, incluidos los avances en ChatGPT y una serie de advertencias severas de expertos de la industria, han provocado un replanteamiento en la parte superior del gobierno, y los ministros ahora actualizan apresuradamente su enfoque. Esta semana, Sunak viajará a Washington DC, donde argumentará que el Reino Unido debería estar a la vanguardia de los esfuerzos internacionales para redactar un nuevo conjunto de pautas que rijan la industria.
Los laboristas también se apresuran a finalizar sus propias políticas sobre tecnología avanzada. Powell, quien dará un discurso a expertos de la industria en la conferencia TechUK en Londres el 6 de junio, dijo que creía que la interrupción de la economía del Reino Unido podría ser tan drástica como la desindustrialización de los años 70 y 80.
Se espera que Keir Starmer, el líder laborista, pronuncie un discurso sobre el tema durante la London Tech Week la próxima semana. Starmer llevará a cabo una reunión de gabinete en la sombra en una de las oficinas de Google en el Reino Unido la próxima semana, dando a los ministros en la sombra la oportunidad de hablar con algunos de los principales ejecutivos de inteligencia artificial de la compañía.
Powell dijo que, en lugar de prohibir ciertas tecnologías, como lo ha hecho la UE con herramientas como el reconocimiento facial, pensó que el Reino Unido debería centrarse en regular la forma en que se desarrollan.
Los productos como ChatGPT se construyen mediante algoritmos de entrenamiento en vastos bancos de información digital. Pero los expertos advierten que si esos conjuntos de datos contienen datos sesgados o discriminatorios, los propios productos pueden mostrar evidencia de esos sesgos. Esto podría tener un efecto colateral, por ejemplo, en las prácticas laborales si se utilizan herramientas de inteligencia artificial para ayudar a tomar decisiones de contratación y despido.
Powell dijo: “Sesgo, discriminación, vigilancia: esta tecnología puede tener muchas consecuencias no deseadas”.
data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl» wp_automatic_readability=»3.4931506849315″>saltar promoción del boletín anterior
después de la promoción del boletín
Argumentó que al obligar a los desarrolladores a ser más abiertos sobre los datos que están utilizando, los gobiernos podrían ayudar a mitigar esos riesgos. “Esta tecnología avanza tan rápido que necesita un enfoque gubernamental activo e intervencionista, en lugar de uno de laissez-faire”.
Matt Clifford, presidente de la Agencia de Investigación e Invención Avanzada, que el gobierno creó el año pasado, dijo el lunes que la IA estaba evolucionando mucho más rápido de lo que la mayoría de la gente pensaba. Dijo que ya podría usarse para lanzar armas biológicas o ataques cibernéticos a gran escala, y agregó que los humanos podrían ser superados rápidamente por la tecnología que habían creado.
id=»46b28109-18da-4979-8e07-5d9b4f23f657″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=»dcr-11ra563″>
En declaraciones a Tom Newton Dunn de TalkTV, Clifford dijo: «Ciertamente es cierto que si tratamos de crear una inteligencia artificial que sea más inteligente que los humanos y no sepamos cómo controlarla, entonces eso creará un potencial para todo tipo de riesgos ahora y en el futuro. Así que creo que hay muchos escenarios diferentes de los que preocuparse, pero ciertamente creo que es correcto que debería ocupar un lugar muy alto en las agendas de los formuladores de políticas”.
Cuando se le preguntó cuándo podría suceder eso, agregó: “Nadie lo sabe. Existe una gama muy amplia de predicciones entre los expertos en IA. Creo que dos años estarán en el extremo más alcista del espectro”.