Saltar al contenido

Cómo afectarán ChatGPT y la IA generativa a las operaciones de TI

18 de marzo de 2023

La IA generativa ha dominado los ciclos de noticias en los últimos seis meses, ya que los avances técnicos en el campo parecen estar a punto de cambiar aspectos del trabajo diario, incluido el de los profesionales de TI.

Las discusiones sobre las implicaciones de la IA generativa para la tecnología y la sociedad en general alcanzaron un punto álgido en noviembre de 2022, cuando OpenAI lanzó ChatGPT-3. Este mes, OpenAI reavivó el debate con una API que podría alterar la naturaleza de las aplicaciones corporativas y de consumo, y el lanzamiento de GPT-4, un modelo de lenguaje extenso (LLM) actualizado que es lo suficientemente inteligente como para aprobar el SAT o el examen de la barra.

La IA generativa se puede usar para producir contenido original en respuesta a consultas, pero también se puede usar para codificar u operar como asistente virtual. Otros ejemplos de IA generativa incluyen Copilot de GitHub, basado en Codex de OpenAI, que puede crear código de aplicación de software basado en indicaciones de lenguaje natural, CodeT5 de Salesforce y la herramienta de finalización de código de Tabnine. Esta semana, la IA generativa también apareció en los nuevos asistentes de IA para Microsoft Azure y Office 365, así como en las actualizaciones de Google Cloud y Google Workspace.

Incluso antes de que GPT-3 irrumpiera en escena, la IA generativa se había abierto camino en herramientas familiares para los profesionales de operaciones de TI, como el software de infraestructura como código Ansible de Red Hat. IBM y Red Hat lanzaron Project Wisdom en octubre, con el objetivo de entrenar un modelo generativo de IA para crear libros de jugadas de Ansible.

«Simplemente escribiendo una oración, tenemos la intención de facilitar la creación de contenido de automatización, encontrar contenido de automatización, mejorar el contenido de automatización y, quizás lo más importante, explicar lo que hace un libro de jugadas sin ejecutarlo», escribió Ashesh Badani, vicepresidente senior y jefe de productos de Red Hat, en una publicación de blog de octubre.

La capacidad de la IA generativa para asumir tareas de codificación una vez que la competencia exclusiva de los desarrolladores humanos ya ha provocado ansiedad entre los ingenieros de software sobre si dichos programas eventualmente los reemplazarán. Si bien el reemplazo completo es poco probable, la IA generativa podría cambiar significativamente la naturaleza del trabajo de los programadores, cambiando su experiencia de instruir directamente a las máquinas a través de lenguajes de codificación a lo que se ha denominado ingeniería rápida.

Recomendado:  Keeping It Local | Noticias

También está claro que algunas tareas de ingeniería de software, como la generación de pruebas, pronto serán asumidas por la IA, según un analista.

“[Generative AI] puede generar no solo código de aplicación, sino también automatización de procesos, donde también genera pruebas funcionales”, dijo Diego Lo Giudice, analista de Forrester Research. «No solo pruebas unitarias, pruebas funcionales».

Mientras tanto, la infraestructura moderna administrada por profesionales de operaciones de TI en roles como ingeniero de confiabilidad del sitio (SRE) está en gran medida impulsada por código. En el campo de rápido crecimiento de la ingeniería de plataformas, los profesionales de TI actúan como un conducto entre los desarrolladores de aplicaciones y la compleja infraestructura de back-end, a menudo creando plantillas de infraestructura como código para garantizar que las aplicaciones se implementen sin problemas y de acuerdo con las políticas empresariales en entornos de prueba y producción.

Observabilidad, ingeniería del caos, áreas maduras para la IA generativa

Algunas habilidades y flujos de trabajo específicos de operaciones de TI podrían convertirse en el dominio de la IA generativa a medida que mejora, dijeron los observadores de la industria. Además de la IA generativa para infraestructura como código similar a Project Wisdom, la observabilidad podría hacer que los LLM desempeñen un papel más importante en el futuro.

“Si tiene la capacidad de acceder a sus datos y entiende cuando está diciendo: ‘Conecte estos datos a estos datos, a estos datos, y luego muéstreme el resultado’, entonces tiene una interfaz conversacional para obtener informes sobre negocios. métricas, métricas de rendimiento del servidor, lo que sea”, dijo Rob Zazueta, consultor técnico independiente en Concord, California.

La generación y automatización de pruebas para flujos de trabajo de resiliencia, como la ingeniería del caos y las pruebas de penetración de seguridad, también podrían ser adecuadas para la IA generativa, según otro experto en TI.

“Cuando pensamos en la resiliencia, estamos viendo lo que podría salir mal”, dijo Chris Riley, gerente sénior de relaciones con desarrolladores de la firma de tecnología de marketing HubSpot. “¿No sería genial si hubiera una manera de probar realmente todo lo que podría salir mal? ¿Cuáles son los casos de prueba que nunca podríamos siquiera imaginar?

Un bot de IA podría realizar trabajos de prueba repetitivos para los que los humanos a menudo no tienen tiempo, dijo Riley.

“Si tuviera un analista de penetración virtual o un bot virtual de recompensas por errores, podría estar hurgando continuamente en las cosas, viendo qué funciona, qué no funciona y tal vez incluso probando la documentación con escenarios del mundo real”, dijo Riley. «Hay muchos casos de uso interesantes en torno a la identificación de brechas… en lugar de esperar a escucharlas de alguien».

Recomendado:  La interfaz del cerebro y la computadora convierte la escritura mental en texto en la pantalla

Los productos AIOps ya utilizan la IA y el aprendizaje automático para la respuesta a incidentes de TI. Pero la IA generativa podría mejorar los análisis post-mortem en datos no estructurados, como archivos de chat, llamadas de audio y otras comunicaciones en lenguaje natural, dijo Robert Nishihara, cofundador y director ejecutivo de Anyscale, un proveedor de servicios que aloja la infraestructura utilizada para entrenar grandes modelos de IA. incluyendo GPT-4.

“Con datos de audio [such as] llamadas de ventas grabadas… [we are] capaz de hacer preguntas como, ‘¿Por qué eligieron [us]’, o si perdíamos el trato, ‘¿Por qué se fueron con un competidor?’ en lugar de tener que volver a ver la llamada y averiguarlo”, dijo. “El mismo tipo de principio se aplica a cosas como incidentes de TI o [software] errores que se están archivando y problemas que se están rastreando”.

Puede haber casos en los que la IA generativa pueda hacer que las tecnologías complejas sean accesibles para personas sin experiencia profunda y aliviar las brechas de habilidades tecnológicas, dijo Nishihara.

“A medida que mejoren las herramientas y la IA, creo que hará posible que los generalistas hagan algo [previously specialized] roles”, dijo. “Pondrá más énfasis en poder hacer las preguntas correctas y menos peso en conocer los detalles técnicos de cómo traducir esas preguntas en la herramienta específica que está utilizando”.

La IA generativa puede asumir tareas, pero no reemplazar a los humanos

Ese tipo de habilidad, hacer las preguntas correctas y especificar la serie de pasos necesarios para resolver un problema complejo, son áreas en las que la IA generativa no está cerca de reemplazar a los humanos, dijo Nishihara.

“En un plazo de cinco años, ciertamente no veo que los ingenieros de software sean reemplazados por completo”, dijo. “Creo que facilitará muchas cosas… [and] permitir que muchas más personas creen aplicaciones de software más rápido”.

Dado que aún es temprano en el ciclo de exageración de la IA generativa, algunos de los desafíos con la capacitación y el mantenimiento de los LLM se están pasando por alto, dijo Andy Thurai, analista de Constellation Research.

Por ejemplo, los conjuntos de datos y los recursos de infraestructura necesarios para entrenar un LMM son enormes, dijo Thurai.

“Es posible que las empresas individuales no tengan suficientes datos para capacitar a un LLM”, dijo. “Eso solo es potencialmente posible con grandes hiperescaladores: Google, Azure o AWS podrían tener suficientes datos para hacerlo”.

Recomendado:  El modelo de aprendizaje automático detecta desinformación, es económico y transparente

Los servicios como la API de ChatGPT facilitan el trabajo con los LLM existentes, pero entrenar un nuevo modelo para apuntar a las aplicaciones de TI requeriría un esfuerzo separado y costoso, dijo. Y, en última instancia, es posible que los beneficios de capacitar a un LLM para generar resultados, como plantillas de infraestructura como código, no justifiquen ese nivel de inversión.

“Si solo hay 10 formas posibles de implementar, [IT pros] sólo puede tener muestras de eso. ¿Por qué necesitarían un modelo de IA? dijo Thurai.

También está la cuestión de si las empresas confiarían en la IA para ocupar el lugar de un desarrollador de software, SRE o ingeniero de plataforma. Fue una idea que ya propusieron hace cinco años los proveedores de AIOps que adoptaron NoOps, que aún no ha sido adoptada por la mayoría de las empresas principales.

Tampoco es probable que la IA generativa cambie eso, dijo Thurai. En su lugar, actuará como un acelerador en áreas como la generación y lectura de documentación técnica.

“Hay un par de aplicaciones de ejemplo de AI21 Labs llamadas Wordtune y Wordtune Read que son opciones bastante buenas para crear o sugerir documentación”, dijo Thurai. “Si tiene una documentación completa de 40 páginas, por ejemplo, y es un ejecutivo, no querrá leer todo eso. WordTune Read puede reducirlo y luego decir: ‘Estas son las tres áreas que necesita leer’”.

Para resumir el efecto que tendrá la IA generativa en el trabajo de TI, Thurai citó una cita de otro experto en IA entrevistado por HBO. la semana pasada esta noche el 26 de febrero.

“Creo que si se hace bien, no será la IA la que reemplace a los abogados, sino los abogados que trabajan con la IA los que reemplacen a los abogados que no trabajan con la IA”, dijo Erik Brynjolfsson, director del laboratorio de economía digital de Stanford, en el la semana pasada esta noche segmento.

Lo mismo ocurrirá con las operaciones de TI, dijo Thurai.

“Es equivalente a usar esteroides como jugador en una liga deportiva”, dijo. «Tienes una clara ventaja».

Beth Pariseau, redactora sénior de noticias en TechTarget, es una veterana galardonada del periodismo de TI. Ella puede ser contactada en [email protected] o en Twitter @PariseauTT.

Top Big Data