Saltar al contenido

Comunicaciones de la ACM

4 de mayo de 2023

«Los estudiantes de ciencias de la computación no necesitan convertirse en especialistas en ética, y los estudiantes de filosofía no necesitan poder escribir código, pero debemos enseñarles cómo colaborar y entenderse entre sí».

Crédito: DavidDanks.org

El campo de la inteligencia artificial (IA) ha estado dominado por el enfoque de aprendizaje profundo en los últimos años, y existe cierta preocupación de que el enfoque pueda estar limitando el progreso en el campo. David Danks, profesor de ciencia de datos y filosofía en la Universidad de California, San Diego, aboga por una mayor diversidad en la investigación de IA o, como él dice, «dejar que florezcan mil IA».

Bennie Mols entrevistó a Danks en la reunión anual de AAAS de 2023 en Washington, DC

¿Qué le ha llevado a la conclusión de que hay muy poca diversidad en el campo de la IA?

Hemos visto enormes avances en la capacidad de la IA, y en particular del aprendizaje profundo, para predecir, clasificar y generar lo que podríamos considerar como las características superficiales del mundo. Estos éxitos están marcados por dos características fundamentales que no siempre se cumplen: tener una medida de lo que importa y poder definir qué cuenta como éxito. El aprendizaje profundo puede hacer cosas asombrosas, pero lo que me preocupa es que desplaza todo lo demás.

Como…

Hemos luchado para crear sistemas de IA que puedan descubrir la estructura subyacente del mundo, cosas que aparecen en los datos pero que no están definidas por ellos. Entonces, una de las razones por las que estamos luchando para desarrollar una IA más confiable y centrada en el valor es porque la confianza y los valores fundamentalmente no son cosas para las que sabemos cómo dar expresiones numéricas.

Recomendado:  Moda, Sostenibilidad y la Ley de la Moda de Nueva York

¿Puede dar un ejemplo?

Es difícil averiguar qué cuenta como éxito para un automóvil autónomo. Claro, queremos conducir con seguridad, pero lo que cuenta como conducir con seguridad depende mucho del contexto. Depende de las normas sociales, depende del clima, depende de situaciones repentinas en el camino. Tan pronto como hay un contexto inusual, los autos autónomos no pueden razonar su salida como lo puede hacer un conductor humano.

¿Cuál es su propuesta para aumentar la diversidad de la investigación en IA?

Primero, las personas deben darse cuenta de que hay problemas que no estamos considerando debido al enfoque en el aprendizaje profundo. El aprendizaje profundo no es bueno para el razonamiento simbólico, no es bueno para la planificación, no es bueno para reconciliar conflictos entre múltiples agentes que tienen diferentes valores. Necesitamos dejar que florezcan miles de IA porque necesitamos marcos diferentes y necesitamos analizar problemas que no estamos considerando debido al enfoque en el aprendizaje profundo.

En segundo lugar, las agencias de financiación en particular deberían apoyar el trabajo que las empresas no quieren apoyar. En este momento, la mayoría de las empresas están poniendo su mayor esfuerzo en el aprendizaje profundo.

En tercer lugar, también creo que existe una enorme oportunidad para que los empresarios identifiquen problemas que el aprendizaje profundo no va a resolver y propongan nuevos métodos y nuevos sistemas. Si fuera emprendedor, me mantendría alejado del aprendizaje profundo, porque no voy a competir con las grandes empresas tecnológicas.

¿Cómo ve usted, como filósofo, el reciente revuelo en torno a ChatGPT y modelos de lenguaje grandes similares?

Recomendado:  Los riesgos reales del GPT-4 de OpenAI

Para mí, el aspecto más interesante es que ChatGPT está cuestionando cuán profunda es en realidad gran parte de nuestra conversación humana. Gran parte del lenguaje humano parece ser altamente predecible o ritualizado; cualquiera que haya impartido clases durante algunos años lo sabe. Hay momentos en los que simplemente vas al salón de clases y comienzas a hablar en piloto automático. Me di cuenta de que mi propio discurso no es tan profundo como podría haber pensado que era.

¿ChatGPT tiene consecuencias para tu forma de enseñar?

Puse todas las tareas de mis clases a través de ChatGPT para ver cómo funciona, y lo hizo muy mal. ChatGPT es particularmente bueno para dar un resumen de un tema a nivel de Wikipedia, pero es malo para razonar, sacar inferencias, conclusiones lógicas y construir buenos argumentos. ChatGPT en realidad podría empujar a los maestros a hacer mejores tareas al evitar las tareas que puede responder bien.

¿Qué quiere que sus alumnos aprendan de la filosofía sobre la IA?

La informática tiende a centrarse en la parte del proceso que va de los números en forma de datos a un modelo, pero la informática no te va a decir qué problemas abordar, si un método particular de recopilación de datos invade la privacidad de las personas o qué medida de equidad utilizar. Quiero que mis alumnos se den cuenta de que sus clases de IA se centran en una parte muy pequeña, aunque obviamente crítica, de una gran tubería de un problema en particular. Los estudiantes de informática no necesitan convertirse en especialistas en ética, y los estudiantes de filosofía no necesitan poder escribir código, pero debemos enseñarles cómo colaborar y entenderse entre sí.

Recomendado:  El robot le devolvió la sonrisa - ScienceDaily

Leí que te gustan los acertijos filosóficos. ¿Puede ofrecer un rompecabezas que sea particularmente interesante desde el punto de vista de la IA?

Por un lado, queremos que nuestra tecnología compense los sesgos humanos y otras debilidades. Por ejemplo, queremos que el piloto automático de un avión compense las limitaciones cognitivas del piloto humano. Pero otras veces no queremos eso en absoluto. Si usa un reloj inteligente para rastrear la cantidad de pasos que da, no querrá que su reloj mienta sobre la cantidad de pasos porque cree que necesita perder peso. O tome el ejemplo de un conjunto de datos que muestra que las personas de color están subdiagnosticadas para una enfermedad en particular. ¿Debería un desarrollador de IA crear un algoritmo que diga que las personas de color corren un mayor riesgo suponiendo que esto se compensará con el sesgo humano hacia donde debería estar? Hay muchos ejemplos de este tipo en aplicaciones de IA.

Entonces el rompecabezas filosófico es: ¿Dónde está el límite en el medio? Eso parece un rompecabezas increíblemente difícil.

bennie mols es un escritor de ciencia y tecnología con sede en Ámsterdam, Países Bajos.


entradas no encontradas