Por Prof. Ioannis Pitas, presidente de la Academia Internacional de Doctorado en IA (AIDA)
El impacto positivo de los sistemas de IA puede superar con creces sus aspectos negativos si se toman las medidas reglamentarias adecuadas. La tecnofobia no está justificada ni es una solución, escribe el profesor Ioannis Pitas.
En medio de los crecientes temores sobre la posibilidad de que la inteligencia artificial cada vez más presente se salga de control, tal vez sería bueno comenzar considerando la siguiente parábola al estilo de los pueblos antiguos para ayudar a ilustrar la narración.
Érase una vez, la inmensamente próspera AIcity, llamémosla así, creció a un ritmo asombroso.
Sus albañiles solían construir bonitas casas sofisticadas, luego edificios bajos. Como se trataba de una empresa muy rentable, comenzaron a construir rascacielos más complicados, utilizando más o menos las mismas tecnologías.
Empezaron a aparecer algunas grietas aquí y allá, pero nadie prestó mucha atención. Los AImasons estaban tan fascinados por su éxito que comenzaron a construir rascacielos muy altos, acertadamente llamados «Torres AI de Babel», simplemente escalando las mismas técnicas de construcción a un ritmo frenético.
Sus torres de IA podrían albergar a muchos miles de habitantes. Sin embargo, ningún albañil podía entender realmente por qué edificios tan complejos funcionaban tan bien.
Al mismo tiempo, las grietas y percances continuaron ocurriendo a un ritmo alarmante.
Nadie sabe que hacer, todos esperan lo peor
Ahora, los AImasons comenzaron a estar realmente preocupados: ¿Cuál es la fuente de los problemas técnicos? ¿Hay alguna posibilidad de que estas torres de IA colapsen? ¿Ya cruzamos el límite de altura segura?
Los propietarios de las torres de IA tenían preocupaciones más materialistas: ¿Qué sucede si las torres colapsan? ¿Quién reembolsará a las víctimas?
¿Qué reglamentos y legislaciones se aplican en tales casos? ¿Qué está haciendo la competencia? ¿Cómo podemos engañarlo?
Originalmente, la población de la ciudad estaba muy fascinada por vivir en estas maravillosas torres de IA. Estaban asombrados por su gran tamaño.
Sin embargo, bastantes de ellos comenzaron a preocuparse al ver problemas inexplicables aquí y allá y proyectarlos hacia el futuro.
Seguían preguntando, ¿somos realmente capaces de crear construcciones tan grandes y complejas, y estamos seguros en una ciudad así?
El gobierno de AIcity estaba demasiado ocupado con otros problemas apremiantes y no se preocupó de abordar todos estos temas.
En resumen: nadie sabía qué hacer, pero muchos empezaron a temer lo peor.
La parábola termina aquí, y prometo que no fue una parábola generada por un chat de IA.
El entusiasmo de la IA está mezclado con tecnofobia
Sin embargo, este es el estado actual de las cosas cuando se trata de IA generativa y modelos de lenguaje extenso como ChatGPT. El entusiasmo de la IA está, de hecho, mezclado con tecnofobia.
Esto es natural para el público en general: les gustan las cosas nuevas y emocionantes, pero tienen miedo a lo desconocido.
Lo nuevo es que varios científicos destacados se convirtieron en tecnoescépticos, si no en tecnofóbicos.
El caso de los científicos e industriales que piden una prohibición de seis meses de la investigación en IA, o el escepticismo del principal científico en IA, el profesor Geoffrey Hinton, son ejemplos de ello.
El único equivalente histórico relacionado que puedo recordar es la crítica de las bombas atómicas y nucleares por parte de la comunidad científica durante la Guerra Fría. Afortunadamente, la humanidad logró abordar estas preocupaciones de una manera bastante satisfactoria.
Por supuesto, todo el mundo tiene derecho a cuestionar el estado actual de la IA. Por un lado, nadie sabe por qué los modelos de lenguaje grande funcionan tan bien y si tienen un límite.
También existen muchos peligros de que los malos puedan crear «bombas de IA», especialmente si los gobiernos siguen siendo espectadores pasivos en términos de regulaciones.
Estas son preocupaciones legítimas que alimentan el miedo a lo desconocido, incluso entre científicos destacados. Después de todo, ellos mismos son humanos.
Necesitamos maximizar el impacto positivo de la IA
Sin embargo, ¿puede detenerse la investigación de la IA, aunque sea temporalmente? En mi opinión, no, ya que la IA es la respuesta de la humanidad a una sociedad global y un mundo físico de complejidad cada vez mayor.
A medida que aumenta la complejidad física y social, los procesos son muy profundos y parecen implacables. La IA y la morfosis ciudadana es nuestra única esperanza para tener una transición fluida de la Sociedad de la Información actual a una Sociedad del Conocimiento.
De lo contrario, podemos enfrentar una implosión social catastrófica.
La solución es profundizar nuestra comprensión de los avances de la IA, acelerar su desarrollo y regular su uso para maximizar su impacto positivo y minimizar los efectos negativos ya evidentes y otros ocultos.
La investigación en IA puede y debe volverse diferente: más abierta, democrática, científica y ética. Y en ese sentido, hay formas en las que podríamos abordar el tema de manera constructiva.
Por un lado, la primera palabra sobre temas importantes de investigación de IA que tienen un impacto social de gran alcance debe delegarse en los parlamentos y gobiernos electos en lugar de corporaciones o científicos individuales.
Debe hacerse todo lo posible para facilitar la exploración de los aspectos positivos de la IA en el progreso social y financiero y minimizar sus aspectos negativos.
El impacto positivo de los sistemas de IA puede superar con creces sus aspectos negativos si se toman las medidas reglamentarias adecuadas. La tecnofobia no está ni justificada ni es una solución.
Hay peligros para la democracia y el progreso, pero eso se puede abordar
En mi opinión, la mayor amenaza actual proviene del hecho de que tales sistemas de IA pueden engañar remotamente a demasiados ciudadanos que tienen una educación baja o media y/o poca capacidad de investigación.
Esto puede ser extremadamente peligroso para la democracia y cualquier forma de progreso socioeconómico.
En un futuro cercano, deberíamos contrarrestar la gran amenaza proveniente del uso de LLM y/o CAN en actividades ilegales (hacer trampa en los exámenes universitarios es un uso bastante benigno en el espacio de posibilidades criminales relacionadas).
Además, su impacto en el trabajo y los mercados será muy positivo a medio-largo plazo.
Para ayudar, en mi opinión, los sistemas de IA deberían: a) estar obligados por el derecho internacional a registrarse en un «registro de sistemas de IA» y b) notificar a sus usuarios que están hablando o utilizando los resultados de un sistema de IA.
Dado que los sistemas de IA tienen un gran impacto social y hacia la maximización de los beneficios y el progreso socioeconómico, las tecnologías avanzadas de sistemas clave de IA deberían estar abiertas.
Los datos relacionados con la IA deben democratizarse (al menos parcialmente), nuevamente para maximizar el beneficio y el progreso socioeconómico.
Podemos permitir el progreso mientras mantenemos los mecanismos regulatorios también
Se deben prever esquemas de compensación financiera sólidos y adecuados para que los campeones de la tecnología de IA compensen cualquier pérdida de ganancias debido a la apertura antes mencionada y para garantizar fuertes inversiones futuras en I + D de IA, como a través de patentes de tecnología y esquemas de licencias obligatorias.
El equilibrio de la investigación de IA entre la academia y la industria debe reelaborarse para maximizar el resultado de la investigación mientras se mantiene la competitividad y se otorgan recompensas por los riesgos de I+D asumidos.
Las prácticas educativas deben revisarse en todos los niveles educativos para maximizar el beneficio de las tecnologías de IA mientras se crea una nueva generación de ciudadanos y científicos (IA) creativos y adaptables.
Y, por último, se deben crear y reforzar los mecanismos adecuados de regulación, supervisión y financiación de la IA para garantizar lo anterior.
Quizás entonces, la alegoría anterior no sea más que una fábula (ligeramente) entretenida.
El Dr. Ioannis Pitas es profesor de la Universidad Aristóteles de Tesalónica (AUTH) y presidente de la Academia Internacional de Doctorado en IA (AIDA), un instrumento paneuropeo líder en estudios de IA.
En Euronews, creemos que todas las opiniones son importantes. Contáctenos en view@euronews.com para enviar propuestas o propuestas y ser parte de la conversación.