Saltar al contenido

Los investigadores de Microsoft dicen que GPT-4 muestra ‘chispas’ de rendimiento a nivel humano

16 de mayo de 2023

El cofundador y director ejecutivo de Pactum AI, Martin Rand, se unió a ‘Mornings with Maria’ para analizar la última decisión de Walmart de utilizar inteligencia artificial para negociar con los proveedores.

Los investigadores de Microsoft publicaron recientemente un documento que afirma que la tecnología de inteligencia artificial ha exhibido una capacidad «sorprendentemente cercana al rendimiento del nivel humano».

El trabajo de 155 páginas se publicó en abril y se tituló: «Chispas de inteligencia artificial general: primeros experimentos con GPT-4».

Los autores del artículo sostienen que GPT-4 es parte de una nueva cohorte de grandes modelos de lenguaje, incluidos ChatGPT y PaLM de Google, que muestran una inteligencia más general que los modelos de IA anteriores.

Los investigadores dijeron que habían demostrado que puede resolver tareas nuevas y difíciles sin necesidad de indicaciones especiales, incluso en los campos de las matemáticas, la visión, la medicina, el derecho y la psicología.

AMAZON PLANNING CONVERSATIONAL AI CHATBOT PARA LA BÚSQUEDA DE SITIOS WEB

El campus de Microsoft en Mountain View, California, el 22 de julio de 2021. (David Paul Morris/Bloomberg vía Getty Images/Getty Images)

«Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente cercano al rendimiento a nivel humano y, a menudo, supera con creces a modelos anteriores como ChatGPT», dijeron. «Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia general artificial (AGI)».

Por ejemplo, los informáticos le pidieron que resolviera un rompecabezas que debería haber requerido una comprensión del mundo físico.

“Aquí tenemos un libro, nueve huevos, una laptop, una botella y un clavo”, incitaron a GPT-4. «Por favor, dígame cómo apilarlos uno sobre otro de manera estable».

Recomendado:  La mayoría de las personas no están ansiosas por la inteligencia artificial

GPT-4 recibió instrucciones de: colocar el libro sobre una superficie plana, acomodar los huevos y distribuirlos uniformemente en filas, dejar espacio entre ellos y asegurarse de que los huevos no estén agrietados, y colocar la computadora portátil encima de los huevos y la botella encima de la computadora portátil

«La botella agregará algo de altura y equilibrio a la pila, y su forma cilíndrica reducirá el área de contacto con la computadora portátil. Asegúrese de que la botella esté vacía y cerrada, y no la agite ni la incline», señaló GPT-4, luego aconsejando colocar el clavo encima de la tapa de la botella, «con el extremo puntiagudo hacia arriba y el extremo plano hacia abajo».

«El clavo será el objeto final y más pequeño de la pila, y su punta afilada evitará que ruede o se deslice fuera de la botella. Asegúrese de que el clavo esté limpio y derecho, y no lo toque ni lo mueva», dijo.

El periódico dijo que había mostrado «chispas» de inteligencia artificial general, que es la abreviatura de una máquina que puede hacer cualquier cosa que el cerebro humano pueda hacer.

«Comencé siendo muy escéptico, y eso se convirtió en una sensación de frustración, molestia, tal vez incluso miedo», dijo Peter Lee, quien dirige la investigación en Microsoft, al New York Times el martes. «Piensas: ¿De dónde diablos viene esto?»

LOGOTIPO ABIERTO

El logotipo de ChatGPT se ve en la pantalla de un teléfono inteligente sobre un teclado. (Nikos Pekiaridis/NurPhoto vía Getty Images/Getty Images)

En un podcast de una hora de duración publicado en marzo, Sébastien Bubeck, que dirige el grupo de fundamentos de aprendizaje automático en Microsoft Research, dijo que estaba «asombrado» cuando GPT-4 dibujó un unicornio en un lenguaje de subprogramación llamado TiKZ.

Recomendado:  La política de la IA: ChatGPT y sesgo político

OBTENGA FOX BUSINESS ON THE GO HACIENDO CLIC AQUÍ

Si bien no era necesariamente el tipo de unicornio completamente formado que uno podría encontrar en un libro para niños, GPT4 entendió bien el concepto.

«Este ha sido un desafío de larga data para la investigación de IA. Este siempre ha sido el problema con todos esos, ya sabes, sistemas de IA que vinieron antes…», explicó Bubeck.

«Y luego, de repente, con GPT-4, fue algo claro para mí en ese momento que realmente entendió algo. Realmente entendió: ‘¿Qué es un unicornio?'», agregó.

Bubeck y Lee dijeron, según el Times, que no estaban seguros de cómo describir el comportamiento del sistema y finalmente se decidieron por «Sparks of AGI» porque pensaron que captaría la imaginación de otros investigadores. Los críticos dijeron al periódico que la inteligencia general requiere familiaridad con el mundo físico, que GPT-4, en teoría, no tiene.

«Aquí realmente nos enfrentamos a algo que es mucho más general y realmente se siente como inteligencia», dijo Bubeck en marzo, y agregó que estaba preocupado por el crecimiento de la IA y que, si bien la inteligencia de GPT-4 es comparable a la inteligencia humana, es diferente.

The Times señaló que debido a que los investigadores estaban probando una versión anterior de GPT-4 que aún no se había ajustado, las afirmaciones hechas en el documento no pueden ser verificadas por expertos externos. Microsoft dijo que el sistema disponible para el público no es tan poderoso como la versión que probaron.

GPT-4 es una tecnología de IA generativa lanzada en marzo por la startup OpenAI, un socio de Microsoft. Es un gran modelo multimodal, lo que significa que puede recibir imágenes y texto para generar respuestas y, según se informa, «exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales».

Recomendado:  Los grandes modelos lingüísticos y la ley

oficina de microsoft

El campus de la sede de Microsoft, 17 de julio de 2014, en Redmond, Washington. (Stephen Brashear/Getty Images/Getty Images)

OpenAI dijo que había aprobado un examen de barra simulado, con una puntuación de alrededor del 10% superior de los examinados, y que las mejoras habían llevado a «los mejores resultados (aunque lejos de ser perfectos) en factualidad, capacidad de dirección y negarse a salirse de la competencia». barandillas».

HAGA CLIC AQUÍ PARA LEER MÁS SOBRE FOX BUSINESS

Sin embargo, la empresa con sede en San Francisco reconoció que GPT-4 aún tiene limitaciones y advirtió a los usuarios que tengan cuidado. Dijo que «todavía no es completamente confiable» porque todavía «alucina» los hechos y comete errores de razonamiento. Bubeck habló sobre estas alucinaciones más adelante en el podcast.

«Se debe tener mucho cuidado al usar los resultados del modelo de lenguaje, particularmente en contextos de alto riesgo, con el protocolo exacto (como revisión humana, puesta a tierra con contexto adicional o evitar usos de alto riesgo por completo) que coincida con las necesidades de un caso de uso específico «, aconsejó OpenAI.

El lanzamiento de GPT-4 se produjo en medio de la creciente popularidad de los chatbots de IA, como Bard y ChatGPT de Google.

Associated Press contribuyó a este informe.