Saltar al contenido

Desafíos del entrenamiento de modelos de IA en la industria de la construcción

3 de octubre de 2022

Desafíos del entrenamiento de modelos de IA en la industria de la construcción

Los modelos de IA pueden beneficiarse tanto de datos blandos, como anécdotas personales, como de datos duros.

Es bien sabido entre los círculos de ciencia de datos que cuanto más diverso sea su conjunto de datos de entrenamiento, más preciso será su modelo. Esto incluye datos estructurados, no estructurados y semiestructurados. Sin embargo, no todos los datos se tratan por igual, especialmente cuando se trata de datos no estructurados. Los datos blandos, como la memoria colectiva y las anécdotas personales, pueden ser difíciles de acceder, pero pueden ayudar a construir mejores sistemas de toma de decisiones.

Un sistema de toma de decisiones bien diseñado puede aprovechar varios modelos, también conocidos como conjunto de modelos, para buscar la optimización de la eficiencia (por ejemplo, en Slate, utilizamos la optimización del cronograma de construcción, la optimización de costos, la utilización de recursos y similares). En lugar de un solo modelo de IA que analice varias características de los conjuntos de datos y formule recomendaciones, podemos establecer múltiples agentes de aprendizaje inteligente, cada uno de los cuales analiza los atributos de los datos y los patrones para generar una puntuación del modelo o un resultado. Se puede incentivar a un modelo para que analice la optimización del cronograma teniendo en cuenta las limitaciones de la cadena de suministro (y formular recomendaciones), mientras que a otro se le puede incentivar para que observe el desempeño del contratista.

Podemos pensar en cada modelo de IA (o agente inteligente) como un «experto» en su dominio elegido. Luego, un algoritmo de supervisión (un modelo de supervisión) toma los mejores resultados de cada uno de estos expertos y formula una recomendación basada en cuál es la intención humana/objetivo deseado.


Recomendado: ¿Qué es el Big data?.


A medida que el modelo de supervisión analiza los resultados de eficiencia, también retroalimenta a los modelos apropiados, cuáles deberían ser los parámetros de activación y qué calibraciones se deben hacer para presentar el peso y la relevancia. Esto se basa en un análisis combinatorio de los resultados de este y otros modelos, y cuál es la intención colectiva. Esto ayuda al proceso de aprendizaje de los modelos a basarse en su propia experiencia, así como en la experiencia de otros en la colección de modelos.

Este modo de entrenamiento modelo puede denominarse «coevolución colectiva». También existe una noción de «coevolución competitiva» (en la que cada agente inteligente de IA compite con los demás para alcanzar el mismo objetivo). Juntos, los llamo «memoria colectiva» e «inteligencia de modelo colectivo», porque los modelos comparten sus experiencias con otros modelos y juntos evolucionan y formulan recomendaciones de decisión apropiadas. Este intelecto modelo colectivo ayuda a mejorar la toma de decisiones.

La evidencia anecdótica juega un papel igual de importante, especialmente en los casos en que los datos de origen involucran el juicio humano. Tome este ejemplo de la industria de la construcción. La industria está preparada para una transformación significativa gracias a varias tecnologías, pero todavía hay mucha propiedad intelectual que reside en las interacciones humanas, notas anecdóticas en documentos y otros artefactos sobre metodologías y procesos de construcción.

Una fuente de capacitación modelo son las notas de «Lecciones aprendidas» que generalmente se registran después de que se completan los principales proyectos de construcción (o cuando alcanzan hitos importantes). Esta fuente registra lo que funcionó bien y lo que no funcionó en un proyecto de construcción. Gran parte de estos pueden ser datos cualitativos, de los que un sistema de IA eficiente aún puede aprender. La evidencia anecdótica también forma parte del conjunto de datos de entrenamiento porque gran parte del intelecto humano en la construcción se considera no estructurado. La supervisión humana de los resultados del modelo durante la fase de entrenamiento ayuda a orientar los modelos hacia conocimientos significativos

Decodificación de datos oscuros

Con el advenimiento de las tecnologías y la maquinaria sofisticada, hemos producido más datos en los últimos dos años que toda la humanidad desde sus inicios. Las organizaciones son buenas para generar y recopilar datos en diversas formas. Los datos pueden no estar estructurados, permanecer inaccesibles u olvidados, o pueden no usarse para obtener información relevante. Por lo tanto, la oscuridad envuelve estos datos. Una potencial mina de oro de conocimientos permanece oscura debido a datos olvidados o no utilizados.

El entrenamiento del modelo de IA inteligente aprovechará y aprovechará los datos de una multitud de fuentes, tanto estructuradas como no estructuradas, y aprovechará los datos oscuros residentes. Algunas de las tecnologías y técnicas utilizadas para la extracción de conocimientos y el entrenamiento de modelos que utilizan datos oscuros implican:

  • Bases de datos NoSQL para procesar grandes volúmenes de datos no estructurados
  • Malla de datos para unificar, normalizar y federar sobres de datos
  • Graficar bases de datos para identificar relaciones entre datos
  • Técnicas como el procesamiento del lenguaje natural para la clasificación y correlación de datos y la organización de la intención de los datos, computación cognitiva para el descifrado de la intención
  • Utilizando GPU (unidades de procesamiento gráfico) y TPU (unidades de procesamiento de tensor) para realizar procesamiento avanzado y paralelo

Debemos ser conscientes del hecho de que los modelos con capacidades de autoaprendizaje aprenderán tanto de los datos buenos como de los malos. Si no existe un proceso rector para validar el modelo de aprendizaje, esto puede introducir sesgos no intencionales y connotaciones negativas. Las simulaciones con análisis de múltiples escenarios y validación humana en el circuito (durante el proceso de capacitación) ayudarán a introducir disciplina en la forma en que las máquinas aprenden e interpretan estos datos oscuros.

Superar el sesgo del modelo

Puede haber sesgos en el aprendizaje automático, algunos de los cuales son sesgos intencionales causados ​​por interacciones humanas y otros como efectos del entrenamiento y validación incorrectos del modelo. Varios problemas que conducen a sesgos también pueden estar relacionados con el conjunto de datos que se alimenta a los modelos de aprendizaje automático. Cuando nos inclinamos hacia modelos como el aprendizaje no supervisado y pasamos un corpus de datos que pueden estar sesgados intencionalmente o no, el sistema de aprendizaje puede llevar adelante estos sesgos.

Los sesgos se pueden abordar mediante una combinación de elecciones algorítmicas, supervisión, garantía de equidad en el conjunto de datos de entrenamiento, diversificación de conjuntos de entrenamiento, diversificación de etiquetado (donde se necesitan esfuerzos humanos para el etiquetado), inyección consciente de explicabilidad (construir el modelo para que su salida incluye razones por las que el modelo tomó ciertas decisiones), y utilizando técnicas como la equidad contrafáctica, entre otras.

Si el diseño del aprendizaje y la ejecución del modelo tiene en cuenta la explicabilidad de la toma de decisiones de la IA, se puede utilizar para validar y buscar un aprendizaje sesgado. La inyección de escenarios a través de conjuntos de datos de entrenamiento y la observación de los resultados del modelo en busca de sesgos también es una técnica beneficiosa.

El razonamiento contrafactual y la equidad contrafactual exploran resultados que en realidad no ocurrieron pero que podrían haber ocurrido en diferentes condiciones. Esta puede ser una técnica muy útil para buscar resultados sesgados durante el entrenamiento del modelo. Esta técnica garantiza que los resultados de un modelo sean los mismos en un universo contrafactual si se cambiaran ciertos atributos que inducen sesgos, como la raza, el género u otros.

Sobre el Autor

Senthil Kumar es el CTO y director de IA en Slate Technologies, donde dirige una organización de tecnología global centrada en ofrecer los enfoques tecnológicos y de software más modernos para aprovechar los datos en la producción de edificios. Puede ponerse en contacto con el autor por correo electrónico o LinkedIn.