Glosario de IA y tecnologías emergentes

Algoritmos:

Según el autor Pedro Domingos, los algoritmos son “una secuencia de instrucciones que le dicen a una computadora lo que debe hacer”.[1] Estas reglas de codificación basadas en software comenzaron con tareas simples y rutinarias, pero ahora han avanzado hacia formulaciones más complejas, como proporcionar instrucciones de conducción para vehículos autónomos, identificar posibles malignidades en radiografías y tomografías computarizadas, y asignar estudiantes a escuelas públicas. Los algoritmos son ampliamente utilizados en finanzas, comercio, comunicaciones, defensa nacional y muchas otras áreas.

Inteligencia Artificial (IA):

Los ingenieros indios Shukla Shubhendu y Jaiswal Vijay definen la IA como “máquinas que responden a una estimulación consistente con las respuestas tradicionales de los humanos, dada la capacidad humana de contemplación, juicio e intención”.[2] Esta definición hace hincapié en varias cualidades que separan la IA de los dispositivos mecánicos o los programas informáticos tradicionales, concretamente la intencionalidad, la inteligencia y la adaptabilidad. Los sistemas informáticos basados en la IA pueden aprender de los datos, el texto o las imágenes y tomar decisiones intencionales e inteligentes basadas en ese análisis.

Realidad Aumentada (AR):

La realidad aumentada pone a la gente en situaciones reales que se aumentan con video, audio o información sensorial generada por computadora. Este tipo de sistema permite a las personas interactuar con características reales y artificiales, ser monitoreadas por sus reacciones, o ser entrenadas en las mejores formas de lidiar con varios estímulos.

Big Data:

Conjuntos de datos extremadamente grandes que son analizados estadísticamente para obtener una visión detallada. Los datos pueden implicar miles de millones de registros y requieren una considerable potencia de procesamiento informático. Los conjuntos de datos a veces se vinculan entre sí para ver cómo los patrones de un dominio afectan a otras áreas. Los datos pueden estructurarse en campos fijos o no estructurados como información de libre circulación. El análisis de grandes conjuntos de datos puede revelar pautas, tendencias o relaciones subyacentes que antes no eran evidentes para los investigadores.


Recomendado: ¿Qué es el Big data?.


Chatbots:

Herramientas automatizadas para responder a las preguntas de los humanos. Los chatbots se utilizan en el comercio minorista, las finanzas, los organismos gubernamentales, las organizaciones sin fines de lucro y otras organizaciones para responder a preguntas frecuentes o consultas de rutina.

Computación en la nube:

El almacenamiento y el procesamiento de los datos solía tener lugar en computadoras personales o servidores locales controlados por usuarios individuales. Sin embargo, en los últimos años, el almacenamiento y el procesamiento han migrado a servidores digitales alojados en centros de datos operados por plataformas de Internet, y las personas pueden almacenar información y procesar datos sin estar cerca del centro de datos. La computación en nube ofrece conveniencia, confiabilidad y la capacidad de escalar las aplicaciones rápidamente.

Visión por ordenador (CV):

Computadoras que desarrollan el conocimiento basado en fotos o videos digitales.[3] Por ejemplo, las cámaras de las tiendas automatizadas que están conectadas a sistemas de CV pueden observar qué productos recogieron los compradores, identificar los artículos específicos y sus precios y cargar la tarjeta de crédito o el sistema de pago móvil de los consumidores sin necesidad de que intervenga una caja registradora o un vendedor. El CV también se utiliza para analizar imágenes de satélite, rostros humanos e imágenes de vídeo.

Vehículos conectados:

Coches, camiones y autobuses que se comunican directamente entre sí y con la infraestructura de carreteras. Esta capacidad acelera la navegación, aumenta la seguridad humana y aprovecha las experiencias de otros vehículos en la carretera para mejorar la experiencia de conducción.

Análisis de datos:

El análisis de los datos para recopilar percepciones sustantivas. Los investigadores utilizan técnicas estadísticas para encontrar tendencias o pautas en los datos, lo que les permite comprender mejor una serie de temas diferentes. Los enfoques analíticos de datos se utilizan en muchas empresas y organizaciones para hacer un seguimiento de las actividades cotidianas y mejorar la eficiencia operacional.

Minería de datos:

Técnicas que analizan grandes cantidades de información para obtener conocimientos, detectar tendencias o descubrir patrones sustanciales. Estos enfoques se utilizan para ayudar a las empresas y organizaciones a mejorar sus procesos o identificar asociaciones que arrojen luz sobre cuestiones relevantes.

Deepfakes:

Imágenes digitales y audio que son alteradas o manipuladas artificialmente por la IA y/o el aprendizaje profundo para hacer que alguien haga o diga algo que en realidad no hizo o dijo. Las imágenes o los vídeos pueden ser editados para poner a alguien en una posición comprometedora o para que alguien haga una declaración controvertida, aunque la persona no haya hecho o dicho realmente lo que se muestra. Cada vez es más difícil distinguir el material fabricado artificialmente de los videos e imágenes reales.

Aprendizaje profundo:

Un subconjunto de aprendizaje de máquinas que se basa en redes neuronales con muchas capas de neuronas. Al hacerlo, el aprendizaje profundo emplea estadísticas para detectar tendencias o patrones de datos subyacentes y aplica ese conocimiento a otras capas de análisis. Algunos han etiquetado esto como una forma de “aprender con el ejemplo” y una técnica que “realiza[s] tareas de clasificación directamente de las imágenes, el texto o el sonido” y luego aplica ese conocimiento de manera independiente.[4] El aprendizaje profundo requiere una gran capacidad de computación y datos etiquetados, y se utiliza en la investigación médica, los vehículos automatizados, la electrónica y la fabricación, entre otras áreas.

Soberanos digitales:

La velocidad, el alcance y el momento de la innovación tecnológica de hoy en día no suelen ser decididos por los funcionarios gubernamentales sino por los codificadores, los diseñadores de software y los ejecutivos de las empresas. Los soberanos digitales establecen las reglas del camino y los términos de servicio para los consumidores. Lo que deciden, directa o indirectamente, tiene consecuencias de gran alcance para quienes utilizan su software o plataforma. El poder de los responsables de las empresas plantea importantes cuestiones de gobernanza en relación con quién debe decidir sobre las cuestiones que afectan a la sociedad en su conjunto y el papel que deben desempeñar los encargados de formular políticas, los consumidores y los expertos en ética en la innovación digital.

Colaboración distribuida:

Conectar a la gente de primera línea con otros que tienen diferentes habilidades y hacer que trabajen juntos para resolver problemas. La colaboración distribuida difiere de los actuales paradigmas de gobernanza que hacen hincapié en la adopción de decisiones jerárquicas y descendentes por parte de quienes no siempre tienen conocimientos pertinentes sobre las cuestiones que se abordan. El nuevo modelo aprovecha el hecho de que se necesita una serie de aptitudes para resolver los problemas de la tecnología, y esas aptitudes se encuentran en diferentes áreas temáticas y partes organizativas. En lugar de mantener los conocimientos de la IA de forma aislada, la colaboración distribuida reúne a diseñadores de software y productos, ingenieros, especialistas en ética, científicos sociales y encargados de la formulación de políticas para aprovechar sus respectivos conocimientos especializados e integrar sus conocimientos para resolver problemas acuciantes.

Tecnologías de doble uso:

Muchas tecnologías pueden ser utilizadas de una manera buena o mala. El mismo sistema de reconocimiento facial podría utilizarse para encontrar niños desaparecidos o proporcionar un medio de vigilancia masiva. No es la tecnología en sí misma lo que plantea problemas éticos, sino cómo se utiliza la tecnología. El carácter de doble uso de las tecnologías dificulta la reglamentación porque plantea la cuestión de cómo obtener los beneficios de la innovación tecnológica evitando al mismo tiempo sus características perjudiciales.

Reconocimiento facial (FR):

Una tecnología para identificar a personas específicas basada en fotos o videos. Funciona analizando características como la estructura de la cara, la distancia entre los ojos y los ángulos entre los ojos, la nariz y la boca de una persona. Es controvertida debido a la preocupación por la invasión de la privacidad, las aplicaciones maliciosas o el abuso por parte del gobierno o las entidades corporativas. Además, ha habido sesgos bien documentados por raza y género con algunos algoritmos de reconocimiento facial.

Redes 5G:

Se trata de redes de telecomunicaciones inalámbricas de quinta generación que se han desplegado en las principales ciudades y que ofrecen velocidades más rápidas y capacidades mejoradas para la transmisión de datos e imágenes. Como tales, las redes de 5G permiten nuevos productos y servicios digitales, como la transmisión de vídeo, vehículos autónomos y fábricas y hogares automatizados que requieren una banda ancha rápida.

Hiperguerra:

Situaciones militares de alta tecnología en las que los robots, los sensores, la IA y los sistemas autónomos juegan papeles importantes y las decisiones de mando tienen que desarrollarse a velocidades hasta ahora desconocidas en la guerra. Debido a la aceleración del ritmo y el alcance de los conflictos, los países tendrán que llevar a cabo operaciones simultáneas en todos los ámbitos de la guerra y los líderes nacionales tendrán que acelerar la innovación tecnológica para construir un futuro seguro y estable.[5]

Aprendizaje automático (ML):

De acuerdo con Dorian Pyle y Cristina San José de la McKinsey Trimestralel aprendizaje de las máquinas está “basado en algoritmos que pueden aprender de los datos sin depender de la programación basada en reglas”.[6] El ML representa una forma de clasificar datos, imágenes, textos u objetos sin una instrucción detallada y de aprender en el proceso, de manera que las nuevas imágenes u objetos puedan ser identificados con precisión sobre la base de esa información aprendida. Además, el ML puede utilizarse para estimar variables continuas (como la estimación de los precios de venta de las casas) o para jugar a juegos. Muchos de sus conocimientos se obtienen examinando datos anteriores y aprendiendo a mejorar la comprensión.

Procesamiento del Lenguaje Natural (PNL):

El análisis de la información textual para dar sentido a su significado e intenciones. El software de PNL puede tomar una gran cantidad de texto y ver cómo se vinculan las palabras para evaluar el sentimiento positivo o negativo, las relaciones, las asociaciones y el significado. Por ejemplo, los investigadores pueden estudiar los registros médicos para ver qué síntomas del paciente parecen estar más relacionados con determinadas enfermedades.

Redes neuronales:

Los investigadores utilizan programas informáticos para “realizar alguna tarea analizando ejemplos de entrenamiento” y agrupando datos basados en similitudes comunes.[7] Al igual que los nodos neuronales de un cerebro, las redes neuronales aprenden en capas y construyen conceptos complejos a partir de otros más simples. Descomponen las tareas, identifican objetos en diferentes niveles y aplican ese conocimiento a otras actividades. Este tipo de sistemas permiten a las computadoras aprender y adaptarse a las circunstancias cambiantes, de manera similar a la forma en que funciona un cerebro. El aprendizaje profundo y muchas de las aplicaciones recientes más destacadas del aprendizaje automático funcionan a través de redes neuronales (por ejemplo, coches sin conductor, falsificaciones profundas y juegos AlphaGo).

Computación Cuántica:

Las computadoras cuánticas tienen una enorme capacidad para almacenar y procesar información porque sus procesos de almacenamiento no son en forma de cero o uno, como es el caso de las computadoras tradicionales. Más bien, aprovechan la superposición -el hecho de que los electrones pueden estar en dos lugares a la vez- para crear “bits cuánticos” que almacenan múltiples valores en cada punto.[8] Esa capacidad aumenta drásticamente la capacidad de almacenamiento y disminuye los tiempos de procesamiento, mejorando así el alcance del análisis de datos, textos o imágenes.

Singularidad:

El futurista Ray Kurzweil describe una singularidad como una “superinteligencia basada en máquinas [that is] más grande que la inteligencia humana”.[9] Combina la potencia de computación avanzada con la inteligencia artificial, el aprendizaje de las máquinas y el análisis de datos para crear entidades superpotentes. Hay extensos (y no resueltos) debates sobre si la humanidad se enfrentará a una singularidad informática en los próximos 50, 100 o 250 años.

Sistemas de Crédito Social:

La ubicuidad de las actividades en línea de la gente permite la tecnología que rastrea el comportamiento y clasifica a la gente en base a sus acciones en línea. A modo de ilustración, algunas organizaciones han probado sistemas que recopilan datos sobre actividades en los medios sociales, infracciones personales y comportamientos como el pago de impuestos a tiempo. Utilizan esos datos para calificar a las personas en cuanto a su solvencia, viajes, matrícula escolar y cargos en el gobierno.[10] Estos sistemas son problemáticos desde el punto de vista ético porque carecen de transparencia y pueden utilizarse para penalizar a los oponentes políticos.

Aprendizaje supervisado:

De acuerdo con Ciencia revista, el aprendizaje supervisado es “un tipo de aprendizaje de máquina en el que el algoritmo compara sus salidas con las salidas correctas durante el entrenamiento”. En el aprendizaje no supervisado, el algoritmo sólo busca patrones en un conjunto de datos”.[11] El aprendizaje supervisado permite que el ML y la IA mejoren el procesamiento de la información y sean más precisos.

Techlash:

La reacción contra las tecnologías emergentes que se ha desarrollado entre muchos individuos. La gente se preocupa por una serie de problemas relacionados con la innovación tecnológica, como las invasiones de la privacidad, la vigilancia masiva, el aumento de la desigualdad de ingresos y la posible pérdida de puestos de trabajo. Encontrar la manera de mitigar los comprensibles temores humanos es un importante desafío social en el futuro.

Realidad Virtual (VR):

La realidad virtual utiliza auriculares equipados con visores de proyección para poner a las personas en situaciones de apariencia realista que son completamente generadas por las computadoras. La gente puede ver, oír y experimentar muchos tipos de entornos e interactuar con ellos. Mediante la simulación de entornos reales, la RV puede entrenar a las personas para que sepan cómo manejar diversas situaciones, variar las características que se observan y vigilar la forma en que las personas responden a diferentes estímulos.