Bernd Greifeneder es el CTO y fundador de dynatraceuna empresa de inteligencia de software que ayuda a simplificar la complejidad de la nube empresarial.
Todo el mundo habla de ChatGPT, y con razón. El proyecto OpenAI ha abierto la puerta a las posibilidades aparentemente ilimitadas de los modelos de lenguaje extenso (LLM) y la IA generativa para impulsar las ganancias de productividad. Es raro que una tecnología capte tanto la imaginación popular como la atención de las salas de juntas de todo el mundo.
La IA generativa basada en LLM podría transformar muchas industrias. Los casos de uso apenas comienzan a surgir, pero es en el desarrollo de software donde los equipos lograrán algunas de las mayores ganancias.
A medida que las organizaciones busquen aprovechar este potencial, la clave del éxito radicará no solo en los avances en la IA generativa, sino en la combinación de esta tecnología probabilística con otro tipo de tecnología que ofrece respuestas precisas, especialmente en la observación de la nube y la gestión de TI: la IA causal.
Por qué ChatGPT está cambiando el mundo
Una de las claves del gran éxito de ChatGPT es su capacidad para generar texto sorprendentemente similar al humano.
Hacer preguntas de ChatGPT en lenguaje natural y recibir respuestas detalladas, claras y pulidas podría aumentar la productividad en una amplia gama de escenarios comerciales, lo que podría liberar tiempo, acelerar la acción, mejorar el conocimiento y permitir que los empleados se concentren en tareas de alto valor. Desde el marketing por correo electrónico hasta el servicio al cliente, las organizaciones ya están dando sus primeros pasos tentativos hacia un nuevo mundo generativo impulsado por la IA.
En el contexto de la entrega de software, las tecnologías de transformadores generativos preentrenados (GPT) como ChatGPT podrían ayudar a los equipos de DevOps a aumentar la productividad al sugerir soluciones a problemas técnicos, extraer información de la documentación y generar código basado en lo que GPT aprendió de una fuente de GitHub u otra. sitio que proporcionó un punto de partida.
La cultura popular puede presentar el desarrollo, la configuración y la operación de software como algo acelerado. La realidad es a menudo diferente. Los ingenieros todavía están agobiados por el trabajo manual repetitivo, como rastrear interminables sitios de base de conocimientos para obtener respuestas a sus preguntas. Eso se suma a la monotonía de incorporar nuevos miembros del equipo a los conjuntos de herramientas de DevOps.
Con GPT, los ingenieros de software y TI pueden pisar el acelerador, encontrar las posibles respuestas que están buscando rápidamente y mejorar las habilidades de los nuevos empleados al permitirles incorporarse más rápido. Los equipos pueden incluso usar GPT para respaldar la corrección cuando se detectan problemas en su código.
Pueden lograr esto alimentando a los GPT con información precisa sobre las causas raíz de los problemas e integrándolos con análisis y automatización o soluciones de administración de servicios de TI que inician una respuesta. En un mundo basado en software, es difícil imaginar una organización que no pueda beneficiarse directa o indirectamente de tales ganancias potenciales.
Navegando Desafíos y Estableciendo Controles
Todo este progreso viene con advertencias. El código extraído de Internet por GPT y compartido con ingenieros puede estar sujeto a restricciones de IP. Los equipos de DevOps deben tener procesos para mitigar los riesgos de usar dicho contenido y evitar compartir sin saberlo su IP con GPT que pueden estar rastreando repositorios como GitHub.
Las regulaciones de privacidad y seguridad regionales y nacionales amplifican estos riesgos, como GDPR o la Ley de inteligencia artificial de la UE emergente, que puede imponer sanciones financieras significativas por infracciones graves.
Los líderes organizacionales también deben recordar que los LLM son tan precisos y de bajo riesgo como la información que extraen del dominio público. Esta información podría estar sesgada, no ser confiable o, en el caso del código, estar plagada de vulnerabilidades colocadas por actores malintencionados.
Según un informe, una muestra aleatoria de aplicaciones empresariales reveló que el 68 % contenía vulnerabilidades conocidas. El mismo estudio detectó un aumento del 742 % en los paquetes de software malicioso insertados deliberadamente en sentido ascendente para que los desarrolladores los descarguen sin darse cuenta. Por lo tanto, los equipos de ingeniería deben tener medidas de seguridad antes de usar GPT para verificar los riesgos de confiabilidad, cumplimiento, rendimiento y seguridad en cualquier código entregado por estas herramientas.
Finalmente, como los GPT son probabilísticos, existe el riesgo de que inventen cosas que no existen: ahí es cuando la IA alucina. Por lo tanto, un GPT que actúe por sí solo requiere validación por parte de humanos y mejora a través de otros enfoques más precisos.
Cómo la IA causal puede alimentar GPT con precisión
Si los equipos de DevOps desean sugerencias significativas y procesables sobre posibles soluciones a su problema de software, en lugar de respuestas vagas y de alto nivel como «usar hardware más rápido», deben «alimentar» GPT, a través de un proceso conocido como ingeniería rápida, con información detallada y detallada. información rica en contexto sobre su entorno de software.
Una forma de lograr esto es combinar GPT con IA causal, un tipo de IA preciso y confiable que proporciona un contexto rico y preciso, que es particularmente valioso en la observación, el análisis y la automatización de la nube.
La IA causal observa las relaciones reales dentro de un sistema, como una pila de tecnología multinube, y ofrece respuestas detalladas y precisas casi en tiempo real basadas en estas observaciones. Estas respuestas permiten a los usuarios discernir la causa, el tipo, la gravedad, el riesgo, el impacto y la ubicación de cualquier problema señalado por la IA con una precisión muy alta en función de los hechos observados en tiempo real y sus interdependencias.
En el futuro, los equipos de DevOps pueden utilizar la ingeniería rápida automatizada para proporcionar datos en tiempo real y contexto causal derivado de la IA a su GPT. Como resultado, las respuestas que reciban serán más relevantes, precisas y procesables.
Es probable que este enfoque marque el comienzo de una nueva era de innovación impulsada por GPT. Por ejemplo, las personas podrán «preguntar» a sus sistemas, utilizando IA generativa alimentada con contexto preciso y conocimientos de IA causal, para crear rápidamente nuevas automatizaciones, tableros, instrumentaciones o pruebas, que solían ser tareas que requerían mucho tiempo. Como resultado, los equipos de DevOps podrán moverse a una velocidad con la que actualmente solo pueden soñar.
Valor de entrada, valor de salida
Todo esto destaca un punto importante sobre la IA. Perderse en la exageración que rodea a ChatGPT y la IA generativa es fácil, pero es importante reconocer que no son una panacea. El dicho de “si entra basura, sale basura” es instructivo.
Las organizaciones no pueden esperar que ChatGPT potencie automáticamente su innovación liderada por DevOps. El resultado de las herramientas de IA es tan bueno como la calidad y precisión de la información y el contexto que se les proporciona. Es por eso que agregar IA causal podría cambiar las reglas del juego, ayudando a las organizaciones a lograr una ventaja competitiva más fuerte a través de una innovación digital más rápida e impactante.
El Consejo de Tecnología de Forbes es una comunidad a la que solo se puede acceder por invitación para CIO, CTO y ejecutivos de tecnología de clase mundial. ¿Califico?