En esta función de invitado especial, el Dr. Eli David, PhD, cofundador de DeepCube, destaca las 3 preguntas que impulsan el futuro de la IA. El Dr. David es un experto líder en el campo de la inteligencia computacional, especializado en aprendizaje profundo y computación evolutiva. DeepCube, el primer acelerador de inferencias basado en software, y Deep Instinct, la primera empresa en aplicar el aprendizaje profundo a la ciberseguridad y fue seleccionada por el Foro Económico Mundial como pionera en tecnología. El Dr. David ha publicado más de cincuenta artículos en las principales revistas y conferencias de inteligencia artificial, centrándose principalmente en aplicaciones de aprendizaje profundo y algoritmos genéticos en varios dominios del mundo real. Durante los últimos quince años ha impartido cursos sobre aprendizaje profundo y computación evolutiva, además de supervisar la investigación de estudiantes de posgrado en estos campos. También se ha desempeñado en numerosas capacidades en el diseño, implementación y liderazgo exitosos de proyectos basados en aprendizaje profundo en entornos del mundo real.
La adopción de la IA se ha convertido en un tema clave de enfoque a medida que las organizaciones buscan utilizar la tecnología para impulsar la eficiencia y lograr el ROI. Con eso, la IA se abre camino en más industrias y un número creciente de empresas ya experimenta los beneficios. Sin embargo, a pesar de los períodos de avances significativos durante la última década, quedan muchos desafíos que dificultan la adopción e implementación generalizadas.
Desde los desafíos en los requisitos computacionales hasta los altos costos y las limitaciones técnicas de llevar los modelos de aprendizaje profundo al borde, la IA aún tiene un progreso significativo por hacer para realizar implementaciones en el mundo real a escala. Al tratar de abordar estos desafíos, tres preguntas generales servirán de referencia para el futuro de la IA.
->
¿Cómo llevamos las aplicaciones de IA al mundo real?
El aprendizaje profundo, el impulsor clave de la mayoría de los avances de la inteligencia artificial en los últimos años, se basa en cómo funciona el cerebro humano para procesar cantidades significativas de datos para su uso en la toma de decisiones.
El aprendizaje profundo ha producido resultados de laboratorio increíbles; sin embargo, estos modelos son increíblemente grandes y requieren una potencia de procesamiento considerable, lo que los ha confinado a los laboratorios y la nube. A su vez, esto limita los posibles casos de uso del mundo real y obstaculiza la adopción generalizada.
Si bien las implementaciones en la nube presentan una solución viable para algunos casos de uso como los dispositivos domésticos inteligentes, trae problemas de latencia, conectividad, privacidad y altos costos. Si el aprendizaje profundo se implementa en la nube, el dispositivo de borde debe tener conectividad constante a Internet y depender de la velocidad a la que los datos pueden procesarse y transferirse desde y hacia la nube. En muchos casos, esto hace que no sea un comienzo.
Para superar el problema de la implementación, es necesaria la implementación en el borde. Pero, ¿cómo llevamos el aprendizaje profundo al límite? Debemos reducir los modelos a un nivel compatible, llevándonos a la segunda pregunta.
¿Cómo podemos reducir los requisitos computacionales y el tamaño de los modelos de aprendizaje profundo?
La realización de las implementaciones de borde comienza con la reinvención del proceso de entrenamiento del modelo, inspirándose en el desarrollo del cerebro humano en las etapas iniciales.
En la primera infancia, tenemos la mayor cantidad de sinapsis (conexiones a través de las cuales se comunican las neuronas) que tendremos en nuestra vida. Hasta el final de nuestra adolescencia, nuestro cerebro está eliminando constantemente las conexiones redundantes y se vuelve más escaso, las conexiones mismas aprenden rápidamente y la estructura completa de nuestro cerebro se modifica continuamente.
Durante el proceso de entrenamiento de aprendizaje profundo, podemos intentar imitar esto y esparcir el modelo para encontrar un equilibrio entre el tamaño del modelo y su precisión. Al someterse a la poda en la etapa de entrenamiento, cuando el modelo es más receptivo a la reestructuración, los resultados pueden mejorarse drásticamente y mantener la precisión.
El modelo resultante puede ser liviano con una mejora significativa de la velocidad y reducción de la memoria, lo que permite una implementación eficiente en dispositivos periféricos inteligentes y permite la toma de decisiones autónoma en tiempo real.
¿Cómo será el futuro de las implementaciones de IA?
Se está avanzando para superar estos obstáculos, pero ¿cuál es el final del juego? Con dos posibles estrategias de implementación de la tecnología de aprendizaje profundo, en la nube y en el borde, ¿qué método de implementación debería adoptarse?
Las implementaciones en la nube permiten que la IA se beneficie de la potencia de los sistemas informáticos de alto rendimiento, pero genera preocupaciones y limitaciones de privacidad debido a la latencia, el ancho de banda y la conectividad.
La IA en el borde alivia algunas de las preocupaciones de privacidad y ancho de banda, así como las limitaciones de latencia. Además, proporciona mejoras significativas en la velocidad, la energía y el consumo de memoria, lo que puede reducir los costos y limitar el impacto ambiental. Sin embargo, sacrifica la potencia computacional y la capacidad de sincronizar datos entre dispositivos.
Los beneficios de uno no pueden ser reemplazados completamente por el otro; y, por lo tanto, las implementaciones de IA más impactantes del mundo real serán aquellas que adopten un enfoque híbrido: en la nube y en el borde.
Un enfoque híbrido permitiría volver a entrenar los modelos con datos entre dispositivos para una mejora continua en la nube mientras se mantiene la velocidad, la eficiencia y la seguridad de la implementación de borde.
Se pueden desarrollar flujos de trabajo para maximizar la eficiencia y la escalabilidad; específicamente, identificando casos de uso en los que las decisiones deben tomarse en el borde, en tiempo real, complementadas con escenarios donde el procesamiento puede tener lugar en la nube para el análisis y la mejora a largo plazo.
Tomemos los vehículos autónomos como ejemplo. Si un automóvil no puede actuar hasta que los datos se envíen a la nube y se procesen, entonces no podrá reaccionar ni tomar decisiones con la suficiente rapidez para garantizar la seguridad. Sin embargo, sin la implementación de la nube asociada, los conocimientos no se pueden combinar con los datos recopilados de otros modelos para mejorar el algoritmo.
Descubriendo el futuro de la IA
Si bien la tecnología para llevar los modelos de aprendizaje profundo al borde está en su lugar, estamos a un paso de sacarla del laboratorio y llevarla a implementaciones en el mundo real a escala. Sin embargo, la rápida velocidad a la que se estudia y adapta el aprendizaje profundo puede culminar en el surgimiento del despliegue en el mundo real. El avance exponencial de la investigación de IA eventualmente permitirá a las empresas implementar de manera efectiva la tecnología y sacar modelos de aprendizaje profundo del laboratorio. Para cualquier empresa que busque expandir ofertas y capacidades o optimizar la eficiencia con el aprendizaje profundo, estas tres preguntas marcarán la pauta para 2021 y más allá.
Suscríbase al boletín gratuito insideBIGDATA.
Únase a nosotros en Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1