Geoffrey Hinton, conocido coloquialmente como el «padrino del aprendizaje profundo», pasó la última década trabajando en el desarrollo de inteligencia artificial en Google. Pero en una entrevista con The New York Times (se abre en una pestaña nueva) Hinton anunció que renunció a su cargo y dijo que está preocupado por la tasa de desarrollo de la IA y su potencial de daño.
Hinton es uno de los investigadores más destacados en el campo del desarrollo de IA. la sociedad real (se abre en una pestaña nueva) para el que fue elegido como miembro en 1998, lo describe como «distinguido por su trabajo en redes neuronales artificiales, especialmente en cómo pueden diseñarse para aprender sin la ayuda de un maestro humano», y dijo que su trabajo «bien podría ser el comienzo de máquinas autónomas inteligentes similares al cerebro».
En 2012, él y los estudiantes Alex Krizhevsky e Ilya Sutskever desarrollaron un sistema llamado AlexNet. (se abre en una pestaña nueva) , una «red neuronal convolucional» capaz de reconocer e identificar objetos en imágenes con una precisión mucho mayor que cualquier sistema anterior. Poco después de usar AlexNet para ganar el desafío ImageNet 2012 (se abre en una pestaña nueva) lanzaron una nueva empresa llamada DNN Research, que Google adquirió rápidamente por 44 millones de dólares.
Hinton continuó su trabajo de IA a tiempo parcial en Google; también es profesor en la Universidad de Toronto. (se abre en una pestaña nueva) —y liderar los avances en el campo: en 2018, por ejemplo, fue co-ganador del Premio Turing (se abre en una pestaña nueva) por «grandes avances en inteligencia artificial».
«Fue uno de los investigadores que introdujo el algoritmo de retropropagación y el primero en utilizar la retropropagación para aprender incrustaciones de palabras», su página de empleado de Google, que probablemente será eliminada próximamente. (se abre en una pestaña nueva) dice. «Sus otras contribuciones a la investigación de redes neuronales incluyen máquinas de Boltzmann, representaciones distribuidas, redes neuronales de retardo de tiempo, mezclas de expertos, aprendizaje variacional, productos de expertos y redes de creencias profundas. Su grupo de investigación en Toronto logró importantes avances en el aprendizaje profundo que han revolucionado reconocimiento de voz y clasificación de objetos».
(Crédito de la imagen: Google)
Más recientemente, sin embargo, aparentemente ha tenido un cambio dramático de opinión sobre la naturaleza de su trabajo. Parte de la nueva preocupación de Hinton surge del ritmo «aterrador» al que avanza el desarrollo de la IA. «La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían», dijo Hinton. «Pero la mayoría de la gente pensó que estaba muy lejos. Y yo pensé que estaba muy lejos. Pensé que estaba lejos de 30 a 50 años o incluso más. Obviamente, ya no pienso eso».
Eso está sucediendo, al menos en parte, como resultado de intereses corporativos en competencia, ya que Microsoft y Google compiten para desarrollar sistemas de IA más avanzados. No está claro qué se puede hacer al respecto: Hinton dijo que cree que la carrera hacia la cima solo se puede gestionar a través de algún tipo de regulación global, pero eso puede ser imposible porque no hay forma de saber en qué están trabajando las empresas a puerta cerrada. Por lo tanto, cree que corresponde a la comunidad científica tomar medidas.
«No creo que deban escalar esto más hasta que hayan entendido si pueden controlarlo», dijo.
Pero incluso si los científicos eligen adoptar un enfoque más lento y deliberado de la IA (lo que creo que es poco probable), el resultado inevitable del desarrollo continuo obviamente también preocupa a Hinton: «Es difícil ver cómo se puede evitar que los malos actores la utilicen». por cosas malas», dijo.
Los últimos comentarios de Hinton contrastan de manera interesante con una entrevista de 2016 con Maclean’s. (se abre en una pestaña nueva) en el que expresó la necesidad de precaución pero dijo que no debería usarse para obstaculizar el desarrollo de la IA en el futuro.
«Es un poco como… tan pronto como tienes una buena tecnología mecánica, puedes hacer cosas como retroexcavadoras que pueden cavar hoyos en el camino. Pero, por supuesto, una retroexcavadora puede romperte la cabeza», dijo Hinton. «Pero uno no quiere no desarrollar una retroexcavadora porque puede romperle la cabeza, eso se consideraría una tontería.
«Cualquier tecnología nueva, si es utilizada por personas malvadas, pueden suceder cosas malas. Pero eso es más una cuestión de política de la tecnología. Creo que deberíamos pensar en la IA como el equivalente intelectual de una retroexcavadora. Será mucho mejor que nosotros en muchas cosas. Y puede ser increíblemente bueno: las retroexcavadoras pueden ahorrarnos mucho trabajo de excavación. Pero, por supuesto, se puede usar mal».
La gente debería estar pensando en el impacto que la IA tendrá en la humanidad, dijo, pero agregó, «lo principal no debería ser, cómo paralizamos esta tecnología para que no sea dañina, debería ser, ¿cómo ¿Mejorar nuestro sistema político para que la gente no pueda usarlo para malos propósitos?
Hinton hizo declaraciones similares en una entrevista de 2016 con TVO, en la que reconoció el potencial de problemas, pero dijo que esperaba que estuvieran mucho más avanzados de lo que realmente están demostrando.
Curiosamente, Hinton no fue uno de los firmantes de cartas abiertas recientes que pedían una «pausa» de seis meses. (se abre en una pestaña nueva) en el desarrollo de nuevos sistemas de IA. Según el Times, no quería criticar públicamente a Google ni a otras empresas hasta después de haber renunciado. Sin embargo, Hinton aclaró en Twitter que no dejó Google para poder hablar sobre la compañía, sino para poder «hablar sobre los peligros de la IA sin considerar cómo esto afecta a Google».
«Google ha actuado de manera muy responsable», agregó.
Sea como fuere, es un gran problema que una de las mentes más destacadas en el desarrollo de IA ahora advierta que todo podría ser muy malo para nosotros algún día. La nueva perspectiva de Hinton tiene paralelos obvios con el arrepentimiento de Oppenheimer sobre su papel en el desarrollo de armas nucleares. Por supuesto, las dudas de Oppenheimer vinieron después del desarrollo y uso de la bomba atómica, cuando era fácil ver cuán dramáticamente había cambiado el mundo. Queda por ver si los arrepentimientos de Hinton también se producen después de que el caballo se haya escapado, o si todavía hay tiempo (y suficiente capacidad regulatoria en los gobiernos globales) para evitar lo peor.