Saltar al contenido

El CEO de OpenAI dice que la compañía no entrenará GPT-5 por algún tiempo

20 de abril de 2023

OpenAI, la empresa que desarrolló el chatbot de inteligencia artificial ChatGPT, ha confirmado que no intentará entrenar a GPT 5, luego del lanzamiento del altamente efectivo GPT 4. Durante una presentación en el MIT, el CEO de OpenAI, Sam Altman, confirmó esta información cuando fue cuestionado sobre una carta abierta escrita por Elon Musk y otros investigadores que solicita a las empresas que detengan el desarrollo de sistemas de inteligencia artificial más potentes que GPT-4.

La capacidad de ChatGPT de OpenAI para proporcionar respuestas detalladas a una amplia variedad de preguntas en un período de tiempo relativamente corto ha contribuido al aumento meteórico de la popularidad de la aplicación. Debido a que es utilizada mensualmente por más de cien millones de personas, se ha convertido en la aplicación más popular de su tipo en la historia del mundo. Se han planteado preocupaciones sobre las formas en que su rápida expansión podría influir en factores como la seguridad personal y la privacidad de las personas, así como en el mercado laboral.

En su charla en el MIT, Altman abordó algunas de estas preocupaciones argumentando que la carta abierta no tuvo en cuenta los matices técnicos cruciales con respecto a cuándo y dónde se debe detener el desarrollo. La charla de Altman fue parte del Instituto MIT para el Estudio de la Inteligencia Humana. Altman no estaba convencido por la carta que Musk había firmado. Faltan muchos de los matices técnicos que nos dirían dónde debe estar la pausa”, dijo. Fue su respuesta que «No lo somos, y no lo haremos por algún tiempo».

Además, dejó las cosas claras con respecto a la afirmación engañosa de la carta de que OpenAI estaba actualmente en proceso de instruir a GPT-5. En cambio, el enfoque principal de la compañía es eliminar todos los posibles problemas de seguridad asociados con GPT-4 y el resto de sus sistemas de IA.

Recomendado:  Un enjambre de pequeños drones autónomos puede localizar fugas de gas

– Anuncio –

Investigadores en el campo de la tecnología, como Elon Musk, Steve Wozniak y el profesor Stuart Russell, han discutido las amenazas que plantea la inteligencia artificial y han propuesto posibles soluciones a estos problemas.
La Junta Europea de Protección de Datos (EDPB) acaba de anunciar que establecerá un grupo de trabajo sobre ChatGPT para establecer una política común sobre reglas de privacidad para la inteligencia artificial. El comisionado de protección de datos de Alemania dejó caer indicios de que su país podría seguir el ejemplo de Italia y prohibir ChatGPT después de que ese país tomó la decisión de hacerlo.

A medida que continúa la discusión sobre temas como la seguridad, la privacidad y las implicaciones laborales de la inteligencia artificial, OpenAI y otras empresas de la industria deberán abordar estos problemas. Es esencial que todas las partes interesadas trabajen juntas para garantizar que la inteligencia artificial se desarrolle de manera responsable y ética. Este es el caso a pesar de que puede haber desacuerdos sobre la mejor manera de lograr este objetivo.

El bombo publicitario de GPT y la falsedad del control de versiones

Los comentarios hechos por Altman son intrigantes; sin embargo, no arrojan nueva luz sobre los planes que OpenAI tiene reservados para el futuro cercano y lejano. En cambio, llaman la atención sobre un obstáculo importante que debe superarse cuando se habla de la seguridad de la inteligencia artificial, y es la dificultad de medir y rastrear los avances. A pesar de que Altman afirma que OpenAI actualmente no está entrenando GPT-5, esta declaración no revela mucho.

Recomendado:  GPT-4 presenta demasiados riesgos y los lanzamientos deben detenerse, dice un grupo de AI a la FTC

– Anuncio –

Este concepto erróneo se ve favorecido por la «falacia de los números de versión», que es la creencia errónea de que las actualizaciones de software incrementalmente con números más altos representan mejoras definitivas y lineales en la funcionalidad. La industria de la tecnología de consumo ha sido responsable de perpetuar un concepto erróneo generalizado durante varios años, que es la idea de que los números de versión dados a los nuevos teléfonos y sistemas operativos representan intentos legítimos de control de versiones. Si seguimos esta línea de razonamiento, es lógico que el iPhone 35 sea una mejora con respecto al iPhone 34. Cuanto mayor sea el número, más avanzado y capaz será el teléfono.

Esto no quiere decir que las preocupaciones sobre la seguridad de la IA sean infundadas o que estos sistemas estén avanzando rápidamente y puedan estar fuera de nuestro control. Pero el punto es mostrar que no todos los argumentos son iguales y que asignar un valor numérico a algo (como un nuevo teléfono o inteligencia) no significa que lo entendamos.

En lugar de hablar sobre lo que estos sistemas no pueden hacer, debemos demostrar y predecir sus capacidades.

La garantía de Altman de que OpenAI no está funcionando en GPT-5 no aliviará las preocupaciones de seguridad de AI. La empresa todavía está desarrollando las capacidades de GPT-4, al igual que otros en la industria. Los números de versión también pueden ser engañosos porque OpenAI probablemente está optimizando GPT-4 y puede lanzar GPT-4.5 primero, como lo hizo con GPT-3.5.

Incluso si los gobiernos de todo el mundo pudieran prohibir nuevos desarrollos de IA, la sociedad ya estaría sobrecargada. GPT-5 está muy lejos, pero ¿importa eso cuando ni siquiera entendemos GPT-4?

Recomendado:  La IA tiene un problema de racismo, pero solucionarlo es complicado, dicen los expertos

Lanzamiento del programa Bug Bounty de OpenAI

Este proyecto es fundamental para que OpenAI logre su objetivo de desarrollar inteligencia artificial confiable y de vanguardia para cumplir su misión. mientras que construyen productos y servicios que son confiables, seguros y confiables.

La misión del programa Bug Bounty de OpenAI es reconocer y elogiar los esfuerzos de los investigadores de seguridad que contribuyen a la integridad continua de los productos y operaciones de la empresa, al mismo tiempo que brindan una compensación financiera por su trabajo. Son las personas que informarán sobre cualquier error, agujero de seguridad o vulnerabilidad que descubran dentro del sistema. Su contribución para hacer que su producto sea más seguro para que todos lo usen será muy apreciada si comparte sus hallazgos.

OpenAI se asoció con Bugcrowd, la plataforma de recompensas de errores más destacada de la industria, para simplificar el proceso de informar errores y recibir recompensas en la mayor medida posible para todas las partes involucradas. En la página dedicada al programa OpenAI Bug Bounty, encontrará reglas e instrucciones detalladas para participar.

OpenAI ofrecerá recompensas en efectivo a quienes les informen errores, y la cantidad dependerá de la gravedad del problema y del impacto que tendrá. Las recompensas de OpenAI comienzan en $ 200 por descubrimientos menores y llegan hasta $ 20,000 por descubrimientos que cambian el juego. OpenAI también hará todo lo posible para agradecer públicamente a las personas que detecten errores.

– Anuncio –