Saltar al contenido

La gente piensa que ChatGPT está empeorando y más lento. Por eso es posible que tengan razón

7 de junio de 2023

ChatGPT ha capturado nuestra imaginación como una herramienta maravillosa en los seis meses desde su lanzamiento. Más de 100 millones de nosotros usamos la herramienta, mientras que muchos desembolsamos $20 (£16) al mes por una versión paga, ChatGPT Plus, que da acceso a una versión aún más actualizada de la tecnología detrás de ella, GPT-4.

Pero a medida que más de nosotros usamos el modelo de idioma grande (LLM), y algunos de nosotros comenzamos a pagar más por él que por Netflix, hay una creciente inquietud entre algunos usuarios avanzados. Les preocupa que empeore.

Los usuarios han recurrido a las redes sociales y otras plataformas para quejarse de que sienten que GPT-4 es peor que GPT 3.5, el LLM que impulsa la versión gratuita de ChatGPT. “Hace dos semanas, GPT-4 era el mejor asistente de escritura del mundo y hace unas semanas se volvió muy mediocre”, escribió un usuario. “Creo que redujeron la potencia de procesamiento o la hicieron menos inteligente”.

La teoría tiene agua en la mente de algunos usuarios escépticos. Cuando OpenAI lanzó ChatGPT en noviembre de 2022, probablemente nunca imaginaron la escala de uso. Todos esos usuarios que hacen preguntas agotan el poder de procesamiento de OpenAI, lo que le cuesta dinero, lo que significa que podría haber acelerado el rendimiento de la herramienta para hacerla más eficiente.

Esa teoría ganó credibilidad con los comentarios hechos por el director ejecutivo de OpenAI, Sam Altman, en una reunión a puertas cerradas con 20 desarrolladores en Londres a fines de mayo, cuyo contenido no estaba destinado a hacerse público y desde entonces se eliminó de Internet en OpenAI. pedido. Allí, Altman supuestamente les dijo a los desarrolladores que OpenAI estaba luchando por obtener suficientes unidades de procesamiento gráfico, o GPU, para impulsar su herramienta, lo que estaba retrasando sus planes de expansión. “La mayor queja de los clientes fue sobre la confiabilidad y la velocidad de la API”, informó el artículo, luego eliminado. “Sam reconoció su preocupación y explicó que la mayor parte del problema se debía a la escasez de GPU”.

Recomendado:  Un estudio encuentra que los pacientes son receptivos a la interacción con robots diseñados para evaluar los síntomas sin contacto

Otros sugieren que no se trata de decisiones dictadas por el efectivo, sino simplemente de una escasez de capacidad de procesamiento disponible. En la misma reunión de Londres, Altman les dijo a los desarrolladores que la lucha por obtener la tecnología adecuada estaba obstaculizando un mayor desarrollo.

Otros también piensan que la gran cantidad de usuarios que prueban la herramienta la están ralentizando. “A veces se vuelve más lento debido al efecto del mal vecino”, dijo Mark Ghuneim, un empresario estadounidense de Internet. “Me imagino que hay mucha gente en línea al mismo tiempo”.

OpenAI no respondió a una solicitud para comentar sobre esta historia, que mencionaba las afirmaciones de Altman.

Logan Kilpatrick, que trabaja para OpenAI, ha anuló la idea ese rendimiento está empeorando en las redes sociales. “La API no cambia sin que te lo digamos”, tuiteó. “Los modelos están estáticos allí”.

Sin embargo, Kilpatrick estaba hablando de la versión API de la herramienta GPT-4, que es el modelo subyacente de ChatGPT. La versión API es una a la que los usuarios más técnicos pueden acceder a través de una interfaz diferente.

ChatGPT presenta GPT-4 en un formato de chatbot más fácil de usar, y existe la pequeña posibilidad de que la versión se deteriore con el tiempo debido a su elemento de retroalimentación.

Cuando ChatGPT proporciona una respuesta a la consulta de un usuario, los usuarios pueden calificar la respuesta como buena o mala haciendo clic en un botón de pulgar hacia arriba o hacia abajo. También pueden pedirle al LLM que regenere la respuesta y proporcionar comentarios sobre si es mejor o peor que el intento anterior. Ese proceso se llama aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF).

Recomendado:  Visualizando la biomasa de todos los mamíferos del mundo

Artículo relacionado

RLHF, se piensa, podría estar influyendo en ChatGPT para producir peores respuestas, ya que el peso colectivo de los comentarios cambia la forma en que funciona la IA. Pero los expertos no lo compran. “Creo que la gente simplemente lo está viendo”, dijo Sasha Luccioni, científica investigadora de HuggingFace, una compañía de IA. “Se supone que RLHF lo hace mejor”.

Lo más probable, en cambio, es que todos nos estemos acostumbrando al extraordinario poder de ChatGPT y GPT-4. Podrías llamarlo síndrome del juguete nuevo.

Lo que se veía como una herramienta sobrehumana, alienígena y conquistadora que podría hacernos a todos más productivos y resolver algunos de nuestros problemas más espinosos ahora es simplemente… normal. Hemos descubierto sus fortalezas y limitaciones, y ya no estamos tan asombrados como antes.

Ese podría ser, quizás, el problema más difícil de superar para OpenAI. Una de las principales razones por las que ha ocurrido la fiebre del oro de la IA generativa es la exageración en torno a ChatGPT y su poder. Ver, y usar, es creer cuando se trata de ChatGPT.

Y si los usuarios comienzan a pensar que la herramienta que una vez pensaron que cambiaba la vida está un poco floja, eso podría tener ramificaciones masivas para la revolución de la IA que estamos viviendo actualmente.