En breve Bard, el chatbot de búsqueda en Internet impulsado por IA de Google, ahora puede generar y ayudar a depurar código en más de 20 lenguajes de programación diferentes.
Los usuarios pueden indicarle a Bard que resuelva tareas de programación y pedirle que corrija o explique fragmentos de código en C++, Go, Java, JavaScript, Python, Typescript, así como generar funciones para analizar datos para Hojas de cálculo de Google. Eso está muy bien, excepto en los casos en que el bot escribe un código incorrecto o incorrecto.
«Bard es todavía un experimento inicial y, en ocasiones, puede proporcionar información inexacta, engañosa o falsa mientras la presenta con confianza. Cuando se trata de codificación, Bard puede proporcionarle un código funcional que no produce el resultado esperado o proporcionarle un código que no es óptimo o está incompleto», advirtió Paige Bailey, Gerente de Producto del Grupo en Google Research, en una publicación de blog oficial.
Como siempre con estos novedosos chatbots de IA, tenga cuidado de verificar la precisión de sus resultados. Eso puede ser más difícil para los programadores principiantes, y no está claro si siempre vale la pena usar estas herramientas si puede llevar más tiempo y esfuerzo comprender y corregir su código que los desarrolladores que lo escriben ellos mismos.
«A pesar de estos desafíos, creemos que las nuevas capacidades de Bard pueden ayudarlo al ofrecer nuevas formas de escribir código, crear casos de prueba o actualizar las API. Si Bard cita extensamente un proyecto de código abierto existente, citará la fuente», agregó Bailey. .
La era de los modelos gigantes de IA ha terminado, dice el CEO de OpenAI
Hacer que las redes neuronales sean más grandes puede no ser el camino a seguir para progresar en las capacidades de IA, según el CEO de OpenAI, Sam Altman.
La creación de modelos con más parámetros generalmente conduce a un mejor rendimiento, como lo demuestra el desarrollo de OpenAI de sus modelos basados en GPT. Pero puede que no valga la pena escalar los sistemas, ya que cada vez es más costoso entrenar, y las mejoras pueden no valer la pena.
«Creo que estamos al final de la era en la que van a ser estos, como, modelos gigantes, gigantes», dijo en un evento realizado en el MIT la semana pasada. «Los haremos mejores de otras maneras».
Altman cree que los desarrolladores tendrán que encontrar nuevos métodos y técnicas para mejorar las redes neuronales sin necesariamente hacerlas mucho más grandes que los modelos actuales. OpenAI, por ejemplo, se ha inclinado por usar el aprendizaje por refuerzo con retroalimentación humana para ChatGPT, que guía el modelo para generar texto que sea más apropiado y similar a los humanos.
La IA es todavía un campo relativamente inmaduro; Sin duda, la industria evolucionará a medida que surjan nuevos avances en el aprendizaje automático, la arquitectura de redes neuronales y el hardware.
Microsoft está desarrollando su propio chip de IA personalizado
Según se informa, Microsoft está diseñando sus propios procesadores de IA personalizados, cuyo nombre en código es Athena, mientras continúa proporcionando los recursos computacionales necesarios para que OpenAI desarrolle e implemente sus tecnologías.
Microsoft invirtió $ 10 mil millones en OpenAI y firmó un acuerdo para licenciar exclusivamente la tecnología de la startup. El GPT-4 de OpenAI, por ejemplo, está impulsando el chatbot de búsqueda en Internet de Microsoft, Bing.
El nuevo chip se puede usar tanto para entrenar como para ejecutar modelos de IA, y los ingenieros de hardware comenzaron a trabajar en su diseño personalizado en 2019, según The Information.
Al construir su propio silicio, Microsoft puede optimizar el diseño para admitir la tecnología de OpenAI, sus clientes en la nube y también sus propios productos impulsados por IA. La empresa también podría ahorrar dinero si no tiene que depender tanto de proveedores de hardware de terceros como Nvidia.
Según los informes, los empleados de OpenAI han estado ayudando a Microsoft a probar Athena.
IA generativa y atención médica
Microsoft y Epic, los creadores del software de mantenimiento de registros de salud electrónicos utilizados por miles de hospitales en los EE. UU., están colaborando para aplicar tecnologías de inteligencia artificial generativa para la atención médica.
Los desarrolladores crearán nuevas funciones y servicios de IA además del software de Epic utilizando las herramientas de Microsoft que se ejecutan en su servicio Azure OpenAI. Un proyecto que usa la herramienta de informes de autoservicio de Epic, SlicerDicer, ayudará a los médicos a explorar y extraer datos relevantes usando GPT-4.
«Nuestra exploración de GPT-4 de OpenAI ha demostrado el potencial para aumentar el poder y la accesibilidad de los informes de autoservicio a través de SlicerDicer, lo que facilita que las organizaciones de atención médica identifiquen mejoras operativas, incluidas formas de reducir costos y encontrar respuestas a preguntas localmente y en un contexto más amplio», dijo Seth Hain, vicepresidente senior de investigación y desarrollo de Epic, en un comunicado.
Según se informa, los hospitales UC San Diego Health, UW Health en Madison, Wisconsin y Stanford Health Care ya han aprovechado los recursos de Microsoft para implementar un software que redacta automáticamente las respuestas de los mensajes. Epic y Microsoft creen que la IA generativa puede ayudar a las organizaciones de atención médica a ser más productivas y eficientes. ®