Saltar al contenido

Cómo Microsoft podría convertir Bing Chat en su asistente personal de IA

6 de mayo de 2023

Comentario: después de analizar una gran cantidad de contenido reciente de desarrolladores de Microsoft, el experto Simon Bisson dice que hay una gran pista sobre cómo funcionará Bing Chat.

Imagen: gguy/Adobe Stock

Si hay algo que debe saber sobre Microsoft, es esto: Microsoft es una empresa de plataformas. Existe para proporcionar herramientas y servicios que cualquiera pueda desarrollar, desde sus sistemas operativos y herramientas de desarrollo, hasta sus suites y servicios de productividad, y su nube global. Por lo tanto, no deberíamos sorprendernos cuando un anuncio de Redmond habla de «pasar de un producto a una plataforma».

El último anuncio de este tipo fue para el nuevo servicio de chat basado en Bing GPT. Infundir la búsqueda con inteligencia artificial ha permitido a Bing ofrecer un entorno de búsqueda conversacional que se basa en su índice de Bing y las tecnologías de resumen y generación de texto GPT-4 de OpenAI.

En lugar de trabajar en una lista de páginas y contenido, sus consultas se responden con un breve resumen de texto con enlaces relevantes, y puede usar las herramientas de chat de Bing para refinar sus respuestas. Es un enfoque que ha hecho que Bing regrese a uno de sus puntos iniciales de marketing: ayudarlo a tomar decisiones tanto como a buscar contenido.

VER: Establezca una política de ética de inteligencia artificial en su negocio utilizando esta plantilla de TechRepublic Premium.

ChatGPT ha agregado recientemente complementos que lo extienden a servicios más enfocados; como parte del enfoque evolutivo de Microsoft para agregar IA a Bing, pronto hará lo mismo. Pero, queda una pregunta: ¿Cómo funcionará? Afortunadamente, hay una gran pista en la forma de uno de los muchos proyectos de código abierto de Microsoft.

Salta a:

Kernel semántico: cómo Microsoft extiende GPT

Microsoft ha estado desarrollando un conjunto de herramientas para trabajar con sus servicios Azure OpenAI GPT llamado Semantic Kernel. Está diseñado para ofrecer aplicaciones personalizadas basadas en GPT que van más allá del conjunto de capacitación inicial al agregar sus propias incorporaciones al modelo. Al mismo tiempo, puede envolver estas nuevas funciones semánticas con código tradicional para desarrollar habilidades de IA, como refinar entradas, administrar avisos y filtrar y formatear salidas.

Recomendado:  Cuando la IA puede hacer arte, ¿qué significa para la creatividad? | Inteligencia artificial (IA)

Si bien los detalles del modelo de complemento de IA de Bing no se darán a conocer hasta la conferencia de desarrolladores BUILD de Microsoft a fines de mayo, es probable que se base en el modelo de habilidades de IA del núcleo semántico.

Diseñado para funcionar con la interfaz de programación de aplicaciones de OpenAI y en torno a ella, brinda a los desarrolladores las herramientas necesarias para administrar el contexto entre las indicaciones, agregar sus propias fuentes de datos para brindar personalización y vincular las entradas y salidas al código que puede ayudar a refinar y formatear las salidas, como así como vincularlos a otros servicios.

Construir un producto de inteligencia artificial para el consumidor con Bing tenía mucho sentido. Cuando profundiza en las tecnologías subyacentes, tanto los servicios de inteligencia artificial de GPT como el motor de búsqueda de Bing aprovechan una tecnología relativamente poco conocida: las bases de datos vectoriales. Estos le dan a los transformadores GPT lo que se conoce como «memoria semántica», ayudándolos a encontrar vínculos entre las indicaciones y su IA generativa.

Una base de datos vectorial almacena contenido en un espacio que puede tener tantas dimensiones como la complejidad de sus datos. En lugar de almacenar sus datos en una tabla, un proceso conocido como «incrustación» los asigna a vectores que tienen una longitud y una dirección en el espacio de su base de datos. Eso facilita encontrar contenido similar, ya sea texto o una imagen; todo lo que su código necesita hacer es encontrar un vector que tenga el mismo tamaño y la misma dirección que su consulta inicial. Es rápido y agrega una cierta casualidad a una búsqueda.

Recomendado:  El profesor que intenta proteger nuestros pensamientos privados de la tecnología | neurociencia

Dando memoria semántica GPT

GPT usa vectores para extender su aviso, generando texto similar a su entrada. Bing los usa para agrupar información para acelerar la búsqueda de la información que está buscando al encontrar páginas web que son similares entre sí. Cuando agrega una fuente de datos incrustada a un servicio de chat de GPT, le está dando información que puede usar para responder a sus indicaciones, que luego se pueden enviar en forma de texto.

Una ventaja de usar incrustaciones junto con los datos de Bing es que puede usarlas para agregar su propio texto largo al servicio, por ejemplo, trabajando con documentos dentro de su propia organización. Al entregar una incrustación vectorial de documentos clave como parte de una consulta, puede, por ejemplo, usar una búsqueda y un chat para crear documentos de uso común que contengan datos de una búsqueda e incluso de otros complementos de Bing que haya agregado a su entorno. .

Dando habilidades de Bing Chat

Puede ver signos de algo muy parecido al Semantic Kernel público en funcionamiento en la última versión de Bing, ya que agrega funciones que toman datos generados y procesados ​​por GPT y los convierten en gráficos y tablas, lo que ayuda a visualizar los resultados. Al proporcionar indicaciones de GPT que devuelven una lista de valores, el código de posprocesamiento puede convertir rápidamente su salida de texto en gráficos.

Como Bing es un motor de búsqueda de propósito general, agregar nuevas habilidades que se vinculen a fuentes de datos más especializadas le permitirá realizar búsquedas más especializadas (por ejemplo, trabajar con un depósito de documentos médicos). Y como las habilidades te permitirán conectar los resultados de Bing a servicios externos, puedes imaginar fácilmente un conjunto de interacciones de chat que primero te ayuden a encontrar un restaurante para una ocasión especial y luego a reservar el lugar elegido, todo sin salir de una búsqueda.

Recomendado:  ¿Estamos asistiendo al amanecer de la ciencia posterior a la teoría? | Inteligencia artificial (IA)

Al proporcionar un marco para las interacciones públicas y privadas con GPT-4 y agregar soporte para la persistencia entre sesiones, el resultado debería ser un marco mucho más natural que las aplicaciones de búsqueda tradicionales.

Con complementos para extender ese modelo a otras fuentes de datos y otros servicios, existe la posibilidad de ofrecer el entorno informático basado en lenguaje natural que Microsoft ha estado prometiendo durante más de una década. Y al convertirlo en una plataforma, Microsoft se asegura de que siga siendo un entorno abierto en el que puede crear las herramientas que necesita y no tiene que depender de las herramientas que le proporciona Microsoft.

Microsoft está utilizando su marca Copilot para todos sus asistentes basados ​​en IA, desde las herramientas basadas en GPT de GitHub hasta las nuevas funciones tanto en Microsoft 365 como en Power Platform. Con suerte, continuará extendiendo GPT de la misma manera en todas sus plataformas, para que podamos llevar nuestros complementos a más que solo Bing, usando los mismos modelos de programación para cruzar la brecha entre el código tradicional y las indicaciones generativas de IA y memoria semántica.