Saltar al contenido

La IA generativa ChatGPT sigue ganando adeptos frente a su predecesora GPT-4, por estas razones

18 de marzo de 2023

Dos gladiadores entran al ring y solo uno sale.

Estoy seguro de que has escuchado o visto esa famosa línea de vez en cuando.

Este tropo útil implica que solo puede haber un ganador. O ganas o pierdes. El ganador sobrevive y continúa hacia adelante. El perdedor, bueno, tendemos a asumir que se quedan en el polvo.

Algunos se han estado preguntando si esto quizás describe vagamente el evento trascendental de esta semana que implica la presentación y el lanzamiento formal tan esperado e inmensamente anticipado de una aplicación de IA generativa conocida como GPT-4.

Verá, mucha publicidad precedió al lanzamiento de GPT-4. Mucho bombo. Enormes cantidades. bombo gigantesco.

GPT-4 es esencialmente el sucesor del ampliamente popular ChatGPT. Ambos son productos del fabricante de inteligencia artificial OpenAI.

Como cubrí en la cobertura de mi columna sobre el lanzamiento de GPT-4, vea el enlace aquí, GPT-4 proporciona avances y mejoras bastante notables sobre ChatGPT. Los expertos generalmente estarían de acuerdo en que GPT-4 parece tener más fluidez en sus capacidades de IA generativa, parece ser más rápido y, afortunadamente, parece estar diseñado para reducir, aunque ciertamente no eliminar, las probabilidades frecuentes de generar errores fácticos, falsedades, etc. -llamadas alucinaciones de IA (no me gusta el término «alucinaciones de IA» ya que es una forma de antropomorfismo, vea mi discusión en el enlace aquí, pero se ha puesto de moda y parece que estamos atascados con él).

En los meses previos al lanzamiento de GPT-4, el CEO de OpenAI, Sam Altman, expresó repetidamente su preocupación de que la exageración exagerada estaba más allá de los límites. Los medios de comunicación proclamaban todo tipo de especulaciones locas sobre lo que contendría GPT-4. La creencia era que GPT-4 supuestamente nos haría dar vueltas la cabeza y sería absolutamente revolucionario al mostrar los alcances de lo que la IA puede lograr.

Esencialmente, algunos alcances abiertos de las redes sociales impulsaron una agenda ridícula de que cualquier otro fabricante de IA también podría cerrar sus puertas y cerrar sus laboratorios de investigación porque GPT-4 iba a ser el maullido de gato definitivo. Tal vez, susurraron fervientemente los influencers de los medios, GPT-4 encarnará la Inteligencia General Artificial (AGI), es decir, ser sensible o completamente humano.

Es posible que sepa vagamente que el director ejecutivo de OpenAI, Sam Altman, dijo esto en una entrevista publicada en YouTube (fechada el 17 de enero de 2023): «La fábrica de rumores GPT-4 es algo ridículo. No sé dónde está todo». proviene. La gente está rogando por estar decepcionada y lo estará. La exageración es como… No tenemos un AGI real y eso es más o menos lo que se espera de nosotros».

Quizás pueda simpatizar con el CEO de OpenAI. El éxito desenfrenado e inesperado de ChatGPT había hecho que el interés en su sucesor fuera similar al de una película de gran éxito. Habiendo tenido suerte con el lanzamiento de ChatGPT, una bendición mucho más allá de las expectativas de cualquiera en ese momento, el mundo esperaba la secuela con gran expectación. Corrían rumores de que GPT-4 nos dejaría boquiabiertos y cambiaría el mundo tal como lo conocemos.

Cualquier CEO generalmente agradecería un tsunami de publicidad gratuita antes del lanzamiento de su producto. Dios mío, es tan difícil romper con el exceso de noticias de hoy para que su producto o servicio esté a la vista del público. Hay un trillón de canales de noticias y un trillón de lanzamientos de nuevos productos y servicios. En el caso de GPT-4, hubo un constante rumor de estar atentos a cómo la sociedad se verá indudablemente alterada como resultado de este cacareado sucesor de ChatGPT.

Incluso si sabe que su producto es muy bueno y está por encima de su producto anterior, intentar esforzarse por alcanzar una realidad publicitada es algo que ningún director ejecutivo puede afrontar con delicadeza. Cuando salió ChatGPT, las expectativas eran bastante bajas, si no del todo inexistentes. ChatGPT finalmente superó con creces esas expectativas iniciales. En una escala del 1 al 10, ChatGPT estaba silenciosamente cerca de un 1 y después del lanzamiento se precipitó a la estratosfera acercándose a un increíble y totalmente imprevisto 9 o 10. Para mi cobertura de ChatGPT como marca y una bonanza de marketing, vea el enlace aquí.

¿Cómo puede su producto sucesor competir en el juego de las expectativas en comparación con el sorprendente estatus de éxito de taquilla de su producto anterior?

La respuesta es que probablemente no pueda.

Lo mejor que puedes hacer es intentar calmar las expectativas. Todos sabemos que en la vida, la regla general habitual es tratar de superar las expectativas. Eso normalmente va a producir el resultado más alto. Las expectativas para GPT-4 estaban tan por las nubes que casi por definición la realidad sería menor que las expectativas. Por lo tanto, tiene sentido tratar de amortiguar las expectativas exageradas en tal circunstancia.

Quieres alcanzar de alguna manera los Ricitos de Oro de las expectativas.

Permítanme explicar.

La esperanza es aprovechar cualquier expectativa elevada para garantizar que su nuevo producto o servicio sea de gran interés periodístico. Mientras tanto, debe estar atento a un posible retroceso si no se cumplen las expectativas desenfrenadas. La gente dirá que el nuevo producto simplemente no corta la mostaza. Esto puede ser exasperante cuando el nuevo producto sigue siendo estelar. Solo está siendo abollado porque no cumplió con una barra alta ficticia con los ojos muy abiertos que nadie podría haber alcanzado.

Por lo tanto, intenta hacer un suave retroceso en las expectativas altísimas. Quieres caminar sobre una línea fina. No presione demasiado para bajar el listón porque la gente pensará que tiene una decepción en ciernes. Además, desea que el entusiasmo se transmita a la presentación, por lo tanto, debe mantener vivo el zumbido. La sopa tiene que estar a la temperatura adecuada, ni demasiado caliente ni demasiado fría.

Ahora conocemos la realidad.

La realidad es que GPT-4 parece ser más capaz como una aplicación de IA generativa y debemos reconocer y aplaudir sus logros. Dicho esto, las capacidades reales no han estado a la altura de las expectativas. Uno duda de que alguna vez haya habido alguna posibilidad de hacerlo, ni siquiera la más mínima posibilidad de que el GPT-4 real pueda coincidir con el exagerado GPT-4 imaginado.

En esto entran aquellos que están conmocionados y consternados porque GPT-4 no ha recibido tanta atención como supuestamente merece. Claro, las noticias cubrieron el lanzamiento. Pero no de la manera exagerada que muchos pensaron que ocurriría. Para disgusto de algunos, la sensación es que el resto del mundo simplemente no se da cuenta de lo importante que es realmente el GPT-4.

En la columna de hoy, abordo las razones clave por las que GPT-4 no ha arrasado en el mundo y no se ha convertido en la manía dominante y global que ha exhibido ChatGPT. Por supuesto, sería difícil derramar una lágrima por la cobertura de GPT-4. GPT-4 ha recibido mucha prensa. No hay duda de eso. Sin embargo, la esencia aquí es sobre aquellos que creen que el sucesor debería recibir tanta atención como ChatGPT. Creen fervientemente que este segundo éxito de taquilla es un éxito de taquilla y merece los mismos elogios inmensos que el éxito de taquilla predecesor, ChatGPT.

Desempaquemos lo que está ocurriendo.

Algunos de ustedes se estarán preguntando qué es en realidad la IA generativa. Primero cubramos los fundamentos de la IA generativa y luego podemos echar un vistazo de cerca al asunto apremiante que nos ocupa.

En todo esto viene una gran cantidad de consideraciones sobre la ética y la ley de la IA.

Tenga en cuenta que se están realizando esfuerzos para imbuir los principios éticos de IA en el desarrollo y la implementación de aplicaciones de IA. Un creciente contingente de éticos de IA preocupados y antiguos está tratando de garantizar que los esfuerzos para diseñar y adoptar IA tengan en cuenta una visión de hacer IA para el bien y evitar la IA para el mal . Del mismo modo, se han propuesto nuevas leyes de IA que se están promocionando como posibles soluciones para evitar que los esfuerzos de IA se vuelvan locos en materia de derechos humanos y similares. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, vea el enlace aquí y el enlace aquí, solo por nombrar algunos.

Se persigue el desarrollo y la promulgación de preceptos éticos de IA para evitar que la sociedad caiga en una miríada de trampas que inducen a la IA. Para ver mi cobertura de los principios de ética de AI de la ONU, tal como fueron ideados y respaldados por casi 200 países a través de los esfuerzos de la UNESCO, consulte el enlace aquí. De manera similar, se están explorando nuevas leyes de IA para tratar de mantener la IA en equilibrio. Una de las últimas tomas consiste en un conjunto de propuestas de la Declaración de Derechos de la IA que la Casa Blanca de los EE. UU. publicó recientemente para identificar los derechos humanos en una era de IA, vea el enlace aquí. Se necesita un pueblo para mantener la IA y los desarrolladores de IA en el camino correcto y disuadir los esfuerzos encubiertos intencionales o accidentales que podrían socavar a la sociedad.

Entrelazaré consideraciones relacionadas con la ética de la IA y la ley de la IA en esta discusión.

Fundamentos de la IA generativa

La instancia más conocida de IA generativa está representada por una aplicación de IA llamada ChatGPT. ChatGPT surgió en la conciencia pública en noviembre cuando fue lanzado por la firma de investigación de IA OpenAI. Desde entonces, ChatGPT ha obtenido titulares descomunales y ha superado asombrosamente los quince minutos de fama asignados.

Supongo que probablemente hayas oído hablar de ChatGPT o tal vez incluso conozcas a alguien que lo haya usado.

ChatGPT se considera una aplicación de IA generativa porque toma como entrada un texto de un usuario y luego genera o produce una salida que consiste en un ensayo. La IA es un generador de texto a texto, aunque describo la IA como un generador de texto a ensayo, ya que eso aclara más fácilmente para qué se usa comúnmente. Puede usar la IA generativa para componer composiciones largas o puede hacer que emita comentarios breves y concisos. Todo está a tu disposición.

Todo lo que necesita hacer es ingresar un aviso y la aplicación AI generará para usted un ensayo que intenta responder a su aviso. El texto compuesto parecerá como si el ensayo hubiera sido escrito por la mano y la mente humana. Si ingresara un mensaje que dijera «Cuénteme sobre Abraham Lincoln», la IA generativa le proporcionará un ensayo sobre Lincoln. Hay otros modos de IA generativa, como texto a arte y texto a video. Me centraré aquí en la variación de texto a texto.

Su primer pensamiento podría ser que esta capacidad generativa no parece tan importante en términos de producción de ensayos. Puede realizar fácilmente una búsqueda en línea en Internet y encontrar toneladas y toneladas de ensayos sobre el presidente Lincoln. El truco en el caso de la IA generativa es que el ensayo generado es relativamente único y proporciona una composición original en lugar de una copia. Si intentara encontrar el ensayo producido por IA en línea en algún lugar, es poco probable que lo descubra.

La IA generativa está preentrenada y utiliza una formulación matemática y computacional compleja que se ha configurado mediante el examen de patrones en palabras e historias escritas en la web. Como resultado de examinar miles y millones de pasajes escritos, la IA puede arrojar nuevos ensayos e historias que son una mezcla de lo que se encontró. Al agregar varias funciones probabilísticas, el texto resultante es bastante único en comparación con lo que se ha utilizado en el conjunto de entrenamiento.

Existen numerosas preocupaciones sobre la IA generativa.

Una desventaja crucial es que los ensayos producidos por una aplicación de IA basada en generativos pueden tener incrustadas varias falsedades, incluidos hechos manifiestamente falsos, hechos que se describen de manera engañosa y hechos aparentes que son completamente inventados. Esos aspectos inventados a menudo se denominan una forma de alucinaciones de IA , un eslogan que no me gusta pero que lamentablemente parece estar ganando popularidad de todos modos (para mi explicación detallada sobre por qué esta es una terminología pésima e inadecuada, vea mi cobertura en el enlace aquí) .

Otra preocupación es que los humanos pueden atribuirse fácilmente el mérito de un ensayo generado por IA generativa, a pesar de no haberlo escrito ellos mismos. Es posible que haya escuchado que los maestros y las escuelas están bastante preocupados por la aparición de aplicaciones de inteligencia artificial generativa. Los estudiantes pueden potencialmente usar IA generativa para escribir sus ensayos asignados. Si un estudiante afirma que un ensayo fue escrito por su propia mano, hay pocas posibilidades de que el maestro pueda discernir si fue falsificado por IA generativa. Para mi análisis de esta faceta de confusión de estudiante y maestro, vea mi cobertura en el enlace aquí y el enlace aquí.

Ha habido algunas afirmaciones descabelladas en las redes sociales sobre la IA generativa que afirman que esta última versión de la IA es, de hecho, una IA sensible (¡no, están equivocados!). Los de Ética y Derecho de IA están especialmente preocupados por esta tendencia creciente de reclamos extendidos. Se podría decir cortésmente que algunas personas están exagerando lo que la IA actual puede hacer. Asumen que la IA tiene capacidades que aún no hemos podido lograr. Eso es lamentable. Peor aún, pueden permitirse a sí mismos y a otros meterse en situaciones difíciles debido a la suposición de que la IA será sensible o parecida a un humano para poder tomar medidas.

No antropomorfizar la IA.

Si lo hace, quedará atrapado en una trampa de dependencia pegajosa y severa de esperar que la IA haga cosas que no puede realizar. Dicho esto, lo último en IA generativa es relativamente impresionante por lo que puede hacer. Sin embargo, tenga en cuenta que existen limitaciones significativas que debe tener en cuenta continuamente al usar cualquier aplicación de IA generativa.

Recomendado:  Anticiparse a la economía del sentimiento | Noticias

Una advertencia final por ahora.

Independientemente de lo que vea o lea en una respuesta generativa de IA que parezca transmitirse como puramente factual (fechas, lugares, personas, etc.), asegúrese de permanecer escéptico y esté dispuesto a verificar dos veces lo que ve.

Sí, las fechas se pueden inventar, los lugares se pueden inventar y los elementos que normalmente esperamos que sean irreprochables están sujetos a sospechas. No crea lo que lee y mantenga una mirada escéptica cuando examine cualquier ensayo o resultado de IA generativa. Si una aplicación de IA generativa te dice que Abraham Lincoln voló por todo el país en su jet privado, sin duda sabrás que esto es una tontería. Desafortunadamente, algunas personas pueden no darse cuenta de que los aviones a reacción no existían en su época, o pueden saber pero no darse cuenta de que el ensayo hace esta afirmación descarada y escandalosamente falsa.

Una fuerte dosis de escepticismo saludable y una mentalidad persistente de incredulidad serán su mejor activo cuando use IA generativa. Además, tenga cuidado con las posibles intrusiones en la privacidad y la pérdida de la confidencialidad de los datos; vea mi discusión en el enlace aquí.

Estamos listos para pasar a la siguiente etapa de esta elucidación.

Poslanzamiento de GPT-4 y lo que ha estado sucediendo

Ahora profundicemos en el sucesor de ChatGPT, GPT-4.

Estos son los temas principales que me gustaría tratar con ustedes hoy:

  • 1) La realidad de lo que es GPT-4
  • 2) Los sentimientos queridos hacia ChatGPT son difíciles de reinventar
  • 3) La denominación técnicamente incómoda de GPT-4 es un gran problema de pegajosidad
  • 4) Las complicaciones de disponibilidad inmediata para GPT-4 son una complicación adicional
  • 5) Complemento engorroso de que Microsoft Bing usa GPT-4
  • 6) Un mayor costo de uso de API para GPT-4 es un desafío
  • 7) Ser capaz de aprobar los exámenes no es especialmente una ganancia inesperada para el público
  • 8) Multimodal requiere gratificación retrasada ahora mismo
  • 9) Otro

Cubriré cada uno de estos temas importantes y propondré consideraciones perspicaces que todos deberíamos estar reflexionando atentamente. Cada uno de estos temas es una parte integral de un rompecabezas más grande. No se puede mirar una sola pieza. Tampoco puedes mirar ninguna pieza aisladamente de las otras piezas.

Este es un mosaico intrincado y todo el rompecabezas debe recibir una consideración armoniosa adecuada.

La realidad de lo que es GPT-4

Parece que casi todo el mundo sabe vagamente algo sobre ChatGPT (que generalmente se basa en GPT-3.5). La gente tenía mucha curiosidad con respecto al grado en que GPT-4, el sucesor de ChatGPT, se compararía en una base de funcionalidad directa.

Esto es lo que dice el blog oficial de OpenAI sobre GPT-4:

  • “En una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil. La diferencia surge cuando la complejidad de la tarea alcanza un umbral suficiente: GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5″.

La esencia de esa representación es que es posible que no notes a primera vista que GPT-4 es ostensiblemente más fluido, más rápido y con más capacidad de IA que ChatGPT. Puede que tengas que buscarlo para ver las diferencias. Es posible que, por casualidad, te encuentres con las diferencias. De lo contrario, en el uso normal del día a día, generalmente tendrá dificultades para discernir si está usando ChatGPT o GPT-4 (aunque a pesar de las diferencias en la interfaz de usuario).

Eso es algo así como un problema cuando intentas que la gente se entusiasme con un nuevo producto.

Cuando sale un automóvil nuevo de un importante fabricante de automóviles, lo más probable es que las nuevas características se delineen por completo y la gente acuda en masa para ver la diferencia entre el modelo anterior y el modelo más nuevo. Dios, el nuevo y elegante tablero de instrumentos es fascinante. Guau, la adición de asientos de cubo con calefacción y cierre automático del cinturón de seguridad es fascinante. Esas formas elegantes de los faros delanteros que pueden pivotar son todo un espectáculo.

Si las nuevas características son casi indistinguibles del modelo anterior, esta es una situación diabólica para comercializar al público en general. ¿Cómo haces que la gente se entusiasme con los avances ocultos? Nuestro auto va de 0 a 60 mph en 3.4 segundos, mientras que el modelo anterior tardó 3.7 segundos. Pocos del público se darán cuenta o se preocuparán por los ingeniosos cambios ocultos hechos en las entrañas del vehículo.

En cierto sentido, el mismo o similar dilema enfrenta a GPT-4.

No es fácil ni simple señalar diferencias sustanciales entre ChatGPT y GPT-4. Hay sutilezas involucradas. Desafortunadamente, vender sutilezas puede ser una batalla cuesta arriba. Vender diferencias evidentes y demostrables es mucho más fácil (dentro de un rato, mencionaré la capacidad multimodal como una característica distintiva considerada, que tiene algunas complicaciones que vale la pena revisar).

Volviendo a la exageración que precedió a GPT-4, una afirmación común era que GPT-4 estaría completamente libre de errores fácticos, sesgos, falsedades y alucinaciones de IA generados. Este sería un logro asombroso y finalmente calmaría a todos los escépticos y escépticos que dicen que no usarán la IA generativa debido a las enfermedades inherentes a la producción de resultados.

Esto es lo que dice el informe técnico oficial de OpenAI GPT-4 sobre GPT-4:

  • “GPT-4 tiene la tendencia a ‘alucinar’, es decir, ‘producir contenido sin sentido o falso en relación con ciertas fuentes’. Esta tendencia puede ser particularmente dañina a medida que los modelos se vuelven cada vez más convincentes y creíbles, lo que lleva a que los usuarios confíen demasiado en ellos. Contrariamente a la intuición, las alucinaciones pueden volverse más peligrosas a medida que los modelos se vuelven más veraces, ya que los usuarios generan confianza en el modelo cuando proporciona información veraz en áreas en las que tienen cierta familiaridad”.

Por lo tanto, las alucinaciones de IA todavía están en el juego. Lo mismo ocurre con la salida de errores fácticos, falsedades, sesgos, etc.

La buena noticia es que OpenAI ha realizado grandes esfuerzos y parece que continúan para tratar de reducir las posibilidades de alucinaciones de IA en GPT-4. Además, se afirma que GPT-4 supera a GPT-3.5 en términos de evitar alucinaciones de IA, aunque OpenAI deja en claro que todavía van a ocurrir.

  • “En evaluaciones internas, el lanzamiento de GPT-4 obtiene 19 puntos porcentuales más que nuestro último modelo GPT-3.5 para evitar alucinaciones de dominio abierto y 29 puntos porcentuales más para evitar alucinaciones de dominio cerrado” (fuente: Informe técnico de OpenAI GPT- 4 ).

La cuestión es que, aunque las mejoras indicadas son loables, son una vez más una especie de avance bajo el capó. Si GPT-4 pudiera haber cumplido mágicamente las expectativas exageradas de que no existen dolencias similares en absoluto en GPT-4, eso habría sido asombrosamente monumental.

Y fácilmente vendible.

Para aclarar y equilibrar esta consideración, nadie ha curado de alguna manera este dilema. De hecho, para aquellos que buscan problemas difíciles de IA, les insto a que salten a estas aguas y ayuden. Hay mucho trabajo por hacer en estos asuntos.

De todos modos, aquí hay otro ejemplo de algo que resulta no ser particularmente vendible.

Primero, tenga en cuenta que ChatGPT se entrenó con datos de Internet y se limitó o bloqueó con datos hasta 2021. Esto significa que ChatGPT no tiene datos per se para 2022 y 2023 en términos de eventos y actividades después del año 2021. Las personas que usan ChatGPT a menudo se siente consternado cuando descubre esta limitación de datos.

La exageración sobre GPT-4 era que estaría más actualizado e incluiría 2022 y 2023, y posiblemente estaría trabajando en tiempo real para ajustar y abarcar las últimas publicaciones en Internet.

Esto es lo que dice el informe técnico de OpenAI GPT-4 :

  • “GPT-4 generalmente carece de conocimiento de los eventos que ocurrieron después de que la gran mayoría de sus datos previos al entrenamiento se cortaron en septiembre de 2021 y no aprende de su experiencia. A veces puede cometer errores de razonamiento simples que no parecen corresponder con la competencia en tantos dominios, o ser demasiado crédulo al aceptar declaraciones obviamente falsas de un usuario”.

Ergo, GPT-4 también está sin salida al mar con datos atascados en el tiempo.

Podría seguir y seguir sobre estos aspectos.

El énfasis es simplemente que hay pocos avances distintivos y francamente sensibles realizados en GPT-4 que se pueden ver y sentir fácilmente.

Para aquellos de ustedes que están a favor de GPT-4, y ciertamente tienen buenas razones para hacerlo, no quiero que salten de sus sillas y exhorten que las facetas antes mencionadas perjudican los avances realizados dentro de GPT. 4. Simplemente estoy señalando que el GPT-4 real está muy lejos del publicitado GPT-4, y que incluso el GPT-4 no promocionado aparentemente está diseñado con pocas características distintivas «vendibles» que lo harían más fácil para el público. en general para comprender por qué GPT-4 es mucho mejor que ChatGPT.

A veces, el chisporroteo es lo que vende el coche.

Un ingeniero automotriz que trabaja en cuerpo y alma para mejorar un motor y un tren motriz, lo que permite que un automóvil acelere y ahorre unas décimas de segundo en la métrica de 0 a 60 mph probablemente se sienta un poco abatido cuando el público en cambio se enfoca en el capó bien formado o el portaequipajes añadido. Lamento decir que el capó ornamentado o la elegante baca pueden terminar siendo la piedra angular de por qué el automóvil se convierte en un éxito de ventas, en igualdad de condiciones.

Esa es la naturaleza humana.

Los sentimientos amados hacia ChatGPT son difíciles de reinventar

Ahora que he cubierto brevemente las capacidades de GPT-4, consideremos otros factores que parecen sustentar por qué GPT-4 no es tan exitoso a los ojos del público como lo ha sido ChatGPT.

ChatGPT es la amada IA ​​que no era la favorita y surgió de la nada.

La exageración de los medios sobre ChatGPT ayudó a que la aplicación OpenAI se convirtiera en la favorita del mundo. La gente acudió en masa para usarlo. ChatGPT se convirtió en un éxito de la noche a la mañana. ChatGPT fue anunciado por los medios y el público en general como un gran avance en la IA.

La realidad es que se han ideado muchas otras aplicaciones de IA generativas similares, a menudo en laboratorios de investigación o grupos de expertos, y en algunos casos se pusieron a disposición del público con cautela. El resultado no suele ser bonito. La gente empujó y empujó a la IA generativa y logró obtener ensayos de una naturaleza atroz, vea mi cobertura en el enlace aquí. Los fabricantes de IA en esos casos generalmente se vieron obligados a retirar la IA del mercado abierto y volver a centrarse en el uso de laboratorio o en probadores y desarrolladores beta de IA cuidadosamente elegidos.

Gran parte del resto de la industria de la IA quedó completamente sorprendida cuando ChatGPT logró caminar por la cuerda floja de seguir produciendo resultados desagradables y, sin embargo, no en la medida en que el sentimiento público obligó a OpenAI a eliminar la aplicación de IA del acceso general.

Este fue el verdadero impacto de ChatGPT.

La mayoría de la gente asumió que el impacto era la capacidad de conversación. No para aquellos en AI. La sorpresa que asombró a casi todos los conocedores de la IA fue que podías lanzar una IA generativa que podría arrojar un discurso de odio y la reacción no fue lo suficientemente feroz como para forzar una retirada rápida. ¿Quien sabe? De hecho, antes del lanzamiento de ChatGPT, la fábrica de rumores predecía que en unos pocos días o semanas como máximo, OpenAI se arrepentiría de que la aplicación de IA estuviera disponible para todos. Tendrían que restringir el acceso o posiblemente caminar hasta su casa y tomar un respiro.

El increíble éxito del lanzamiento de ChatGPT ha abierto cautelosamente la puerta a otras aplicaciones generativas de IA para que también se encuentren en la calle. Por ejemplo, he discutido la presentación de Google de Bard y cómo las guerras de los motores de búsqueda en Internet se están calentando debido al deseo de conectar la IA generativa a la búsqueda web convencional, vea el enlace aquí.

El sentimiento público sobre ChatGPT es increíblemente fuerte, leal y hasta ahora duradero (he discutido las formas en que esto podría erosionarse eventualmente, vea el enlace aquí).

A todos parece que nos encantan especialmente esas historias de la pobreza a la riqueza. ChatGPT surgió de la nada. Fue fácil de usar. Fue divertido de usar. Sorprendió a la gente con lo que podía hacer. Se puso a disposición de forma gratuita. Simplemente puede ir a un sitio web, ingresar una dirección de correo electrónico y listo, pudo comenzar a usarlo. No hay un gran desafío de registro. No es necesario configurar una gran cantidad de parámetros. Simplemente inicie sesión, ingrese un mensaje y obtendrá ensayos impresionantes como resultados.

Pan comido.

La positividad que ha pasado de 0 a 60 en solo unos meses asociada con ChatGPT es el sueño de un vendedor. Tome cualquier otro producto como, por ejemplo, el iPhone de Apple, Coca-Cola de Coca-Cola y otros productos generalmente preciados y compare su positividad percibida con ChatGPT.

De acuerdo, entonces, ¿GPT-4 tiene o alcanzará una apariencia comparable de ser amado como lo es ChatGPT?

Tal vez, pero probablemente no.

GPT-4 no es un desvalido. No va a tener el mismo impacto cultural generalizado que ha tenido ChatGPT. Esto no es una falla de GPT-4 per se, y simplemente las circunstancias de la suerte de los fenómenos de tiempo y momento en el tiempo que ha encontrado ChatGPT.

Recomendado:  Aprovechar una ventaja competitiva: sistemas de defensa

Sin el mismo toque divino de nuestros corazones, GPT-4 solo tendrá que salir como cualquier otro producto en el mercado de IA. Ese es el mundo real.

La denominación técnicamente incómoda de GPT-4 es un gran problema de pegajosidad

Uno de los aspectos más afortunados o posiblemente más astutos de ChatGPT fue el nombre de la aplicación de IA.

Antes de ChatGPT, los nombres prevalecientes de la línea OpenAI de productos de IA generativa basados ​​en texto tenían una redacción predominantemente técnica, por ejemplo, GPT-2, GPT-3 y GPT-3.5 son el tipo clásico de versiones de nombres que los tecnólogos Me encanta usar (nota al margen, otro, InstructGPT, se desvió más de cerca a algo más amigable en la denominación).

Si ChatGPT hubiera salido al mercado con el nombre de, por ejemplo, GPT-3.5 o tal vez un paso adelante como GPT-3.6 (inventado), este tipo de nombre podría haber socavado un poco la popularidad resultante de la aplicación de IA. En pocas palabras, la redacción de «Chat» cuando se combina con «GPT» resultó ser un golpe de buena suerte. Es fácil de pronunciar, fácil de recordar, pegadizo y tal vez incluso tierno.

La mayoría de las personas no saben qué es el acrónimo de GPT (transformador preentrenado generativo), y de todos modos no les importa especialmente. Saben visceralmente que probablemente sea algo científico o técnico en lo que sea que signifique. La palabra «Chat» es bien conocida y hoy en día a menudo la asociamos con toda una categoría de productos en línea conocidos como chatbots. Al combinar los dos juntos en el ChatGPT acuñado , terminas con una combinación inteligente. Tiene el aura de tecnología por la GPT, y tiene la sencillez y transparencia por la palabra Chat. Voila, es probable que el nombre haya entrado de forma indeleble en nuestro léxico moderno.

¿Qué pasa con el nombre de su sucesor, GPT-4?

Algunos habían asumido que OpenAI seguramente inventaría un nuevo nombre para GPT-4, justo antes de la fecha de lanzamiento. Probablemente se habría consultado a todo tipo de costosas empresas especializadas en nombres de productos. Se reunirían encuestas secretas y grupos de prueba. Nadie sabría el nombre final elegido hasta la gran revelación en el lanzamiento.

Y ese nombre es GPT-4.

El punto clave es que en lugar de tener un nombre adorable y abrazable, volvemos a la predisposición técnica habitual de usar el nombre de información privilegiada interna. Esto no es atractivo para el público en general. Sin un nombre pegadizo, ganar tracción en la mente y el corazón del público puede ser un desafío.

Tenga en cuenta que hay contraargumentos sobre este punto.

Por ejemplo, supongamos que a OpenAI se le ocurrió un nombre súper tonto. Esto podría haberse sumado a la salpicadura y el esplendor del lanzamiento de GPT-4. Por otro lado, también podría tener la desventaja de crear una posible confusión en el mercado y posiblemente socavar el nombre de ChatGPT. Tener dos nombres cursis podría estar sobrecargando la conciencia pública. Tal vez tenga más sentido mantener el ChatGPT como la estrella destacada, y luego deslizar el otro, el nombre GPT-4 más monótono, al mundo y ver cómo van las cosas.

Algunos están tratando de rectificar este enigma de nombres inventando nombres para GPT-4. Por ejemplo, es posible que vea de vez en cuando la referencia inventada a «ChatGPT-4» mediante la cual los agitadores han decidido crear un nuevo nombre que parece más agradable y asociado con los hermanos predecesores de GPT-4. Existen muchas otras variaciones.

No obstante, el nombre oficial es GPT-4.

No especialmente adorable.

Solo un nombre que suena directo a la tecnología.

Las complicaciones de disponibilidad inmediata para GPT-4 son una complicación adicional

Otro poco de bloqueo al estrellato consiste en las complicaciones de disponibilidad con respecto a GPT-4.

Recuerde que ChatGPT estaba disponible de forma gratuita en el lanzamiento inicial, y podía registrarse con gran facilidad (establecieron un límite momentáneo en las suscripciones debido al alto volumen, pero eso probablemente se sumó al atractivo y no fue un freno o una abolladura). en la popularidad).

¿Sabes cómo acceder a GPT-4?

Déjame compartir contigo el complicado camino.

Quizás el CEO de OpenAI, Sam Altman, lo resumió mejor en su tuit del 14 de marzo de 2023 sobre el lanzamiento de GPT-4:

  • “Aquí está GPT-4, nuestro modelo más capaz y alineado hasta el momento. Está disponible hoy en nuestra API (con una lista de espera) y en ChatGPT+”.

Como se indicó, actualmente hay dos formas principales de obtener acceso a GPT-4.

Un medio consiste en registrarse en ChatGPT+ (también conocido como ChatGPT Plus). Aquí está el trato. El acceso convencional a ChatGPT sigue siendo gratuito si realiza la ruta de acceso ordinaria. Si desea algunos beneficios adicionales de uso de ChatGPT, puede suscribirse a $ 20 por mes y convertirse en miembro de ChatGPT Plus. Como miembro de ChatGPT Plus, también tiene acceso a GPT-4 de diversas formas (dependiendo de qué tan ocupado esté GPT-4).

La conclusión es que para usar GPT-4, tienes que estar dispuesto a desembolsar veinte dólares al mes. Esto muestra que la industria de la IA está aprendiendo lecciones vitales de Netflix, Disney+ y el mundo del streaming.

El otro método principal para obtener acceso a GPT-4 consiste en conectarse a GPT-4 mediante programación a través de la API disponible (interfaz de programación de aplicaciones). En general, así es como funciona. Alguien más que tenga una pieza de software que quiera aprovechar GPT-4 puede hacer que su software se conecte a GPT-4 a través de la API. Por ejemplo, podría tener un paquete orientado a las ventas que podría utilizar de manera fructífera las capacidades de GPT-4. Como tal, modifica su paquete de ventas para incluir una API para GPT-4. He cubierto aspectos de las amplias oportunidades comerciales al aprovechar la API de IA generativa como ChatGPT en el enlace aquí.

Hablaré más sobre la API de GPT-4 en un momento a continuación. Cuelga ahí.

El quid de esto es que tratar de usar GPT-4 es una molestia en comparación con la facilidad de usar ChatGPT. Si quieres probar GPT-4, tienes que saltar a través de los aros. Básicamente, no está disponible de forma gratuita. Obviamente, esto puede amortiguar el volumen de uso previsto por ahora.

Hay contraargumentos asociados con esta consideración.

Por ejemplo, podría decir que es bastante inteligente usar GPT-4 como un señuelo para que las personas se registren en ChatGPT Plus de $ 20 por mes. Las personas que podrían haber estado pensando en obtener ChatGPT Plus ahora reciben una bonificación adicional poderosamente atractiva por hacerlo. Los que están sentados en la cerca probablemente estén convencidos de suscribirse en este momento.

Otro elemento aparentemente astuto consiste en evitar que todo el mundo intente usar GPT-4 a la vez. Si GPT-4 hubiera sido completamente gratuito y fácil de usar, lo más probable es que toneladas y toneladas de personas se hubieran registrado. La avalancha resultante de sobrecarga casi seguramente habría significado que muchas personas no iban a tener una experiencia ininterrumpida. Los llorones habrían aparecido en los titulares de primera plana. Incluso si GPT-4 fuera un sistema de inteligencia artificial milagroso, las quejas por ser lento, lento e imposible de acceder habría ahogado cualquier otro elogio.

Se podría argumentar convincentemente que proporcionar algunas barreras para usar GPT-4 fue prudente y astuto. La fórmula es aparente. Tome un pequeño golpe por no tener acceso sin restricciones, pero evite un desastre mitigado que destruya la reputación si todos tuvieran acceso.

Elogio engorroso de que Microsoft Bing usa GPT-4

Poco después de que se presentara GPT-4, pronto se corrió la voz de que el producto OpenAI AI que se había fusionado anteriormente con la actividad del motor de búsqueda de Microsoft Bing era GPT-4. Para ver mi cobertura anterior del motor de búsqueda Bing y la adición de IA generativa, vea el enlace aquí.

Aquí está el anuncio oficial de Bing realizado en línea el 14 de marzo de 2023:

  • “Felicitaciones a nuestros socios en Open AI por su lanzamiento de GPT-4 hoy. Nos complace confirmar que el nuevo Bing se ejecuta en GPT-4, que hemos personalizado para la búsqueda. Si ha utilizado la nueva vista previa de Bing en cualquier momento durante las últimas cinco semanas, ya ha experimentado una versión anterior de este poderoso modelo. A medida que OpenAI realiza actualizaciones de GPT-4 y posteriores, Bing se beneficia de esas mejoras. Junto con nuestras propias actualizaciones basadas en los comentarios de la comunidad, puede estar seguro de que tiene las funciones de copiloto más completas disponibles”.

¿Es ese pronunciamiento sobre haber incluido GPT-4 algo de lo que estar orgulloso y debería ser promocionado desde las cimas más altas?

Probablemente no, dependiendo del punto de vista de cada uno (lo explicaré a continuación).

Este es el por qué.

Es posible que haya visto o escuchado en las noticias sobre todo tipo de salidas locas que algunos han conseguido que el motor de búsqueda de Bing diseñe al usar el componente generativo agregado por IA. He discutido cómo algunas personas intentan empujar el sobre y deliberadamente obtienen discursos de odio u otros resultados adversos de la IA generativa, consulte el enlace aquí. Hay quienes hacen esto para advertir que la IA generativa no está lista para su uso en horario de máxima audiencia. Otros lo hacen como pasatiempo o para llamar la atención. Etc.

La esencia aquí es que, en general, Bing ya no ha tenido la mejor reputación en términos de ser un motor de búsqueda que tiene solo una pequeña porción del mercado de motores de búsqueda en comparación con Google, además de los resultados estrafalarios que algunos obtuvieron a través del generativo. La adición de IA también fue un poco vergonzosa y decepcionante.

Asociar el GPT-4 recién lanzado con algo que no ha recibido la prensa más estelar probablemente no sea la ventaja óptima para el fabricante de IA, aunque tal vez ayude al fabricante del motor de búsqueda. Bueno, están tan estrechamente aliados ahora que probablemente sea una diferencia minúscula.

Pero supongo que entiendes la esencia de la situación en la que GPT-4 obtuvo un cumplido un tanto engorroso.

Un mayor costo de uso de API para GPT-4 es un desafío

Supongo que la mayoría de las personas no tienen idea de cuál es el costo de usar la API para ChatGPT y tampoco cuál es el costo de usar la API para GPT-4.

Probablemente no haya ninguna razón notable por la que deban saberlo.

Solo aquellos que deseen usar las API probablemente se den cuenta de esto. Es de vital importancia para ellos, ya que necesitarán recuperar de alguna manera el costo de usar las API. Si un paquete de ventas va a utilizar la API para acceder a ChatGPT, esto agrega un nuevo costo para el fabricante del software del paquete de ventas. Necesitan aumentar potencialmente su precio para los usuarios del paquete de ventas para cubrir el costo o absorber el costo con la esperanza de obtener negocios adicionales para su paquete de ventas.

La razón por la que voy a mencionarlo aquí es que esta es otra pequeña pieza más en el rompecabezas de lo que podría evitar que GPT-4 tenga un ritmo vertiginoso de adopción. El dinero hace que el mundo gire, y lo mismo ocurre si desea utilizar la API para conectarse a ChatGPT o GPT-4.

Primero veamos el precio de la API para ChatGPT.

Según el precio oficial en el sitio web de OpenAI, el costo de usar la API de ChatGPT (conocido como gpt-3.5-turbo) es de $0.002 por cada 1000 tokens.

Eso sin duda parece un galimatías. Un desembalaje rápido podría ayudar. Cuando la IA generativa examina las palabras, las palabras se dividen en un conjunto de fichas. Cada token tiene aproximadamente 3 letras de tamaño. La palabra «conejo», que tiene seis letras, generalmente se dividiría en dos tokens «conejo» y «bit». En inglés, la longitud media de las palabras es de unas 4,7 letras. Una regla general útil es que puede multiplicar la cantidad de fichas por aproximadamente un 75 % para obtener la cantidad probable de palabras. Así, en el caso de 1.000 tokens, el equivalente aproximado es de unas 750 palabras.

De acuerdo, con eso en nuestro haber, diremos que usar la API de ChatGPT cuesta alrededor de $ 0.002 por 750 palabras. También puede resultarle interesante que el párrafo promedio en el idioma inglés tiene alrededor de 200 palabras. Entonces, para facilitar la discusión, digamos que por $ 0.002 puede procesar alrededor de 4 párrafos de tamaño normal (750 / 200 = 3.75).

Las cosas comienzan a volverse un poco más complejas en cuanto a cuántos párrafos puede tener al emprender un diálogo interactivo escrito. Todo depende de lo que estés conversando y de la duración de la conversación que quieras tener.

Imagina esto. Inicia una conversación ingresando un aviso que tiene un tamaño de párrafo. ChatGPT emite un ensayo en respuesta a su solicitud. El ensayo tiene quizás 5 párrafos de tamaño. Ingresa un mensaje nuevo que tiene un tamaño de párrafo. ChatGPT responde con 6 párrafos. Escribe dos párrafos como su próximo mensaje. ChatGPT responde con 5 párrafos. Cierras la conversación.

En este momento, había consumido un total de 20 párrafos, cuatro en sus indicaciones y dieciséis como resultado de ChatGPT.

¿Qué costó eso?

Si asumimos que el precio de $0,002 se aplica a aproximadamente 4 párrafos (aproximadamente) y usamos 20 párrafos en este ejemplo, sabemos que el costo sería aproximadamente (20/4) x $0,002, que es $0,01.

Cuesta un centavo usar ChatGPT a través de la API para esta breve conversación interactiva.

Eso parece un gran trato. Puede imaginar por qué muchos se están reuniendo para agregar el uso de ChatGPT a sus paquetes de software. Por supuesto, debe tener en cuenta este ejemplo. Suponga que tiene un usuario que accede a la API a través de su paquete de software y mantiene una conversación interactiva escrita completa. Supongamos que podría ser un centavo en el costo.

Recomendado:  La inteligencia artificial y las matemáticas desempeñarán un papel más importante en la diplomacia global, dice un experto | Inteligencia artificial (IA)

Si tiene mil usuarios de su paquete y todos usan la API cada hora en la misma medida que la moneda de diez centavos, quizás incurra en un costo adicional de $ 100 por hora por el uso de ChatGPT. Mi punto simplemente es que los números pueden sumarse debido al volumen y la frecuencia. Tenga cuidado de no meterse en un aprieto.

Confío en que esto te haya abierto el apetito para saber cuál es el costo de usar GPT-4 a través de la API.

Primero, recuerde que hace un momento dije que el precio oficial para usar la API de ChatGPT (conocido como gpt-3.5-turbo) se establece en $ 0.002 por 1,000 tokens.

El precio para usar GPT-4 es de 0,06 USD por 1000 tokens para el contexto de 32 000 o de 0,03 USD por 1000 tokens para el contexto de 8 K (el contexto se refiere al tamaño total de la discusión contextual que tiene lugar al interactuar con GPT-4, en donde cuanto mayor sea el contexto mayor será el costo).

Una manera más fácil de ver estos precios es uno al lado del otro:

  • $0.002 por 1,000 fichas (gpt-3.5-turbo)
  • $0.060 por 1,000 tokens (GPT-4 en contexto de 32K)
  • $0.030 por 1,000 tokens (GPT-4 en contexto de 8K)

Este es un gran salto de precios.

Considere que el precio de $0.002 aumenta 30 veces para usar el GPT-4 superior (contexto 32K) y aumenta aproximadamente 15 veces para usar el otro GPT-4 (contexto 8K).

Otro ángulo sería decir que mi ejemplo anterior de un centavo por usar la API de ChatGPT sería de treinta centavos para el GPT-4 superior (contexto de 32K) o alrededor de quince centavos para el otro GPT-4 (contexto de 8K). Mil usuarios por hora de costo adicional pueden pasar de $ 100 por hora a $ 3,000 por hora o $ 1,500 por hora, aunque nuevamente, ese es solo un ejemplo y debe considerar el volumen y la frecuencia para cualquier uso que tenga en mente.

En la cobertura de mi columna sobre estos asuntos, he señalado que la decisión de usar la API de ChatGPT en lugar de la API de GPT-4 no es una apuesta segura. Debe estimar de cerca la naturaleza del uso que podría ocurrir. También debe sopesar las ventajas de GPT-4 sobre ChatGPT y si el costo adicional vale los beneficios que espera obtener.

Con todo, ya predije que vamos a ver una avalancha de software que usará ChatGPT o GPT-4 a través de la API. Algunos probablemente comenzarán con ChatGPT para ver cómo reacciona el mercado a la conexión adicional en su paquete. En algún momento posterior, es probable que se actualicen a GPT-4. Otros optarán potencialmente por saltarse ChatGPT y decidirán que el costo es lo suficientemente bajo en general como para garantizar el objetivo inmediato de usar GPT-4 y no jugar con ChatGPT. Si la ganancia potencial o la participación de mercado agregada a su paquete garantiza el costo de API más alto, que así sea.

Tenga en cuenta que su kilometraje puede variar y debe determinar diligentemente qué ruta, si alguna, tiene sentido para su paquete de software. También debe mirar otras aplicaciones de IA generativa y revisar sus precios y características también.

Ser capaz de aprobar los exámenes no es especialmente una ganancia inesperada para el público

Estamos llegando al final de esta lista de puntos a considerar, así que aceleraré las cosas.

Es posible que haya visto o escuchado que GPT-4 pudo aprobar varios exámenes que se consideran tipos de pruebas para ir a la universidad o graduarse de la universidad. Por ejemplo, GPT-4 se probó en el examen SAT, el examen GRE (utilizado para admisiones universitarias de posgrado), numerosos exámenes AP de la escuela secundaria que pueden obtener créditos universitarios y otros exámenes. El más destacado de todos ellos fue probablemente el temido y apreciado examen de la barra que se usa habitualmente para evaluar a los abogados cuando buscan ejercer la abogacía (conocido como el examen uniforme de la barra). Para mi discusión en profundidad sobre la aprobación del examen de la barra y cómo esto afecta a los abogados y los servicios legales, vea el enlace aquí y el enlace aquí, solo por nombrar algunos.

Para aquellos dentro de la industria de la IA, esta fue una hazaña impresionante.

Para el público común, esto es algo impresionante, pero tal vez no tanto como se podría suponer. En general, la gente tiende a pensar en “rendir exámenes” como una habilidad algo limitada. Todo el mundo sabe que las pruebas escritas no son el gran final. Claro, es notable y posiblemente dramático que una IA generativa pudiera hacerlo tan bien en esos exámenes formidables. Nadie discute razonablemente ese logro.

La cuestión es, ¿cómo se traduce eso en hacer tareas del mundo real de naturaleza diaria?

Sugeriría que aprobar los exámenes escritos probablemente no ganará los corazones y las mentes del público para el uso de la IA generativa. Es una métrica conveniente para aquellos en AI. Es medible. Puede informar los resultados sin mucha ambigüedad. Etcétera.

Para el público, la probable «prueba» de las capacidades de IA generativa requerirá otras formas, o al menos adicionales, de logros triunfantes.

Multimodal requiere gratificación retrasada ahora mismo

He predicho que este año vamos a ver el advenimiento de la IA generativa multimodal, y sorprenderá y dejará boquiabiertos a todos (para obtener más información sobre esto, visite el enlace aquí).

En este momento, tenemos esencialmente IA generativa de modo singular.

Por ejemplo, ChatGPT toma texto como entrada y produce texto como salida.

Piénsalo de esta manera:

  • Entrada de ChatGPT: Texto
  • Salida ChatGPT: Texto

Suficientemente simple.

Algunas aplicaciones de IA generativa toman texto como entrada y producen imágenes o ilustraciones como salida. En ese caso, la entrada es solo un modo, a saber, texto, mientras que la salida también es solo un modo, a saber, una imagen o una obra de arte.

Piénsalo de esta manera:

  • Entrada de IA generativa: texto
  • Salida de IA generativa: imagen o material gráfico

¿Conmigo en esto hasta ahora?

Eso espero.

Los fabricantes de IA están quemando el aceite de medianoche para tratar de hacer que su IA generativa sea multimodal .

El concepto es simple. Para la entrada, puede tener texto, además de que también puede tener la entrada de una imagen o una obra de arte. Eso ofrece dos modos de entrada. La salida puede consistir en texto generado, además de una imagen o material gráfico generado, y supongamos que también se genera un video. Serían tres modos de salida.

La versión grandiosa de todos los modos factibles sería esta:

  • Entrada de IA generativa: texto
  • Entrada de IA generativa: imagen o material gráfico
  • Entrada de IA generativa: Audio
  • Entrada de IA generativa: vídeo
  • Entrada de IA generativa: otros modos
  • Salida de IA generativa: texto
  • Salida de IA generativa: imagen o material gráfico
  • Salida AI generativa: Audio
  • Salida de IA generativa: video
  • Salida AI generativa: otros modos

Ese sería el pináculo de la IA generativa multimodal . Tendría todos los modos disponibles para la entrada como indicaciones, y también tendría todos los modos disponibles para la salida generada. El usuario podría tomar sus decisiones preferidas, haciéndolo a su antojo.

Aquí es donde nos dirigimos.

Va a ser impresionante.

Desde la perspectiva de la ética de la IA, esto también será preocupante. Si pensabas que los deepfakes eran un problema ahora, espera hasta que tengamos una IA generativa multimodal completa. Aférrense a sus sombreros. También puede anticipar que los legisladores y los reguladores se verán inexorablemente atraídos por el mercado de la IA generativa cuando los malhechores que explotan las capacidades de múltiples modelos sucedan todo tipo de astucias desagradables. Las nuevas leyes de IA cobrarán especial urgencia.

Volviendo al asunto en cuestión, GPT-4 fue lanzado y alabado por ser multimodal.

Esto es lo que indica el informe técnico oficial de OpenAI GPT-4 :

  • «Informamos sobre el desarrollo de GPT-4, un modelo multimodal a gran escala que puede aceptar entradas de imágenes y texto y producir salidas de texto».

En resumen, puede ingresar texto y obtendrá texto de salida, además, posiblemente pueda ingresar una imagen en la entrada.

Esto es lo que proporciona GPT-4:

  • Entrada GPT-4: Texto
  • Entrada GPT-4: imagen o material gráfico (esta funcionalidad aún no se ha lanzado al público)
  • Salida GPT-4: Texto

Compare esto con los grandes objetivos de la verdadera IA generativa multimodal con todo tipo de entradas y todo tipo de salidas (es decir, GPT-4 es una lista bastante abreviada en este momento, como mencionaré más adelante).

Las demostraciones que muestran el procesamiento de la imagen o la visión de las imágenes ingresadas han indicado que los elementos en una imagen, por ejemplo, podrían identificarse mediante la IA generativa y luego componerse en una narración escrita que explica la imagen. Puede pedirle a la IA generativa que explique lo que parece representar la imagen. Con todo, el procesamiento de la visión será una adición notable.

La capacidad de procesamiento de visión o análisis de imágenes aún no está disponible para uso público (según el blog del sitio web de OpenAI):

  • “Para preparar la capacidad de entrada de imágenes para una mayor disponibilidad, estamos colaborando estrechamente con un solo socio para comenzar”.

El quid de todo esto es que es conmovedor darse cuenta de que GPT-4 aparentemente tiene la capacidad de ingresar y analizar imágenes. Muchos esperan ansiosamente el lanzamiento público de esta característica. Felicitaciones a OpenAI por empujar en la arena multimodal.

Entonces, tenemos texto como entrada, más imagen como entrada (cuando está disponible para uso público) y texto como salida.

Sin embargo, algunos se han estado quejando en la comunidad de IA de que esto apenas cumple con la noción de multimodal . Sí, hay un modo más, la imagen como entrada. Pero no una imagen como salida. Aparentemente no hay audio como entrada, ni audio como salida. Aparentemente no hay video como entrada, ni video como salida. Aquellos con una inclinación aduladora encuentran que esto es «multimodal» en la forma más minimalista.

El contraargumento es que tienes que gatear antes de caminar y caminar antes de correr.

Podemos reflexionar sobre esta aparente capacidad «multimodal» desde una perspectiva escéptica o cínica. Recuerde que antes dije que cuando un fabricante de automóviles lanza un automóvil nuevo, quiere tener algunas características o funcionalidades nuevas y brillantes que se puedan comercializar al máximo. También sugerí que GPT-4 no tenía características o funcionalidades especialmente destacadas, al menos ninguna que lo diferenciara de una manera muy distintiva de ChatGPT a los ojos del público en general.

Ajá, la provisión de imágenes como entradas es, de hecho, el tipo de característica adicional que potencialmente se destacaría. Un cínico podría decir que el fabricante de IA casi tuvo que anunciar la capacidad de procesamiento de imágenes, independientemente de cuál sea su estado. Esta era la única cosa nueva en la que podían colgarse el sombrero y que sería un destacado claro de antes. Un cínico podría afirmar además que mostrar demostraciones es la forma clásica de demoware de los proveedores de travesuras, y también lo es la táctica diferida de indicar que la función se está puliendo antes de lanzarla.

¿Cuánta credibilidad o crédito en la calle se debe dar a una característica del producto que se demuestra pero no se pone a disposición del público en general?

Algunos han insistido en que esto es perfectamente aceptable, que se hace todo el tiempo, y que simplemente hay que sujetar los caballos y esperar a que se produzca esa gratificación retrasada.

Un giro adicional es contemplar el asunto intrigante de lo que habría sucedido si el procesamiento de imágenes se hubiera lanzado en el momento del lanzamiento. En cierto sentido, esa es una elección difícil. Podría impulsar la aplicación de IA lanzada a un tono más febril a medida que las personas se apresuraban a probar esta nueva característica ingeniosa. Sin embargo, la desventaja es que, dado que se trata de un elemento nuevo y presumiblemente no probado por el público en general, el tipo de locuras que la gente podría haber hecho podría haberse convertido en una pesadilla de relaciones públicas.

La decisión espinosa podría haber sido maldita casi con seguridad si lo haces, pero solo un poco maldito si no lo haces.

Conclusión

Dos gladiadores entran al cuadrilátero y ambos salen con éxito, estrechando manos amistosas. Son todos y colectivamente completamente felices de poder coexistir.

Ese es un tropo más apropiado para el estado de ChatGPT y el reciente lanzamiento de GPT-4.

Algunos se habían preguntado si GPT-4 canibalizaría instantáneamente el mercado de ChatGPT. Si GPT-4 fue a pasos agigantados más allá de ChatGPT, la creencia era que ChatGPT se quedaría atrás. Por otro lado, y aunque no se esperaba en absoluto, si GPT-4 fuera de alguna manera inferior a ChatGPT, el polvo podría ser donde GPT-4 terminaría aterrizando.

No, cada uno tiene sus propias compensaciones particulares, que consisten en características y funciones, junto con diferencias en costos y disponibilidad.

Si ChatGPT pudiera hablar, tal vez estaría saludando y dando una calurosa bienvenida a sus hermanos GPT-4. Del mismo modo, GPT-4 felicitaría a ChatGPT por un trabajo bien hecho y agradecería haber preparado el escenario para que GPT-4 ingrese al mundo real desde los laboratorios que ha estado en construcción durante mucho tiempo.

Una observación final por ahora.

La Madre Teresa dijo esta famosa frase: «Puedo hacer cosas que tú no puedes, tú puedes hacer cosas que yo no puedo; juntos podemos hacer grandes cosas».

En este momento, parece que se podría decir lo mismo de la relación entre ChatGPT y GPT-4. Son familiares respetuosos que cada uno tiene su propio camino y destino particular.