Saltar al contenido

¿Se trata de gestionar los riesgos o ponerse al día en la carrera de la IA?

17 de abril de 2023

Foto de Jakub Porzycki/NurPhoto el 14 de marzo de 2023 vía Getty Images

NurPhoto a través de Getty Images

El Future of Life Institute ha emitido una carta en la que pide pausar los sistemas de IA GPT-4 durante seis meses debido a sus riesgos inherentes. Sin embargo, muchas de las personas que firmaron la carta, incluido Elon Musk, firmaron la carta con bastante probabilidad de ponerse al día en una carrera que sienten que podrían estar perdiendo ante OpenAI. En lugar de pedir que se detenga el inevitable e imparable desarrollo de la IA, un enfoque mucho más fructífero será aplicar algunos de los conceptos básicos de un buen liderazgo: transparencia e inclusión.

Más de 26.000 personas han firmado una carta en la que piden a todas las empresas de inteligencia artificial que suspendan el entrenamiento de potentes sistemas de IA durante al menos seis meses debido a amenazas como la proliferación de información errónea y la sustitución de trabajadores humanos por algoritmos. Los firmantes incluyen a Elon Musk de SpaceX, Tesla y Twitter, Steve Wozniak de Apple y Emad Mosaque, director ejecutivo de Stability AI.

Los signatarios advierten sobre los riesgos de continuar entrenando sistemas de IA más potentes que GPT-4, un gran modelo de lenguaje lanzado en marzo por OpenAI, la startup de San Francisco detrás del popular ChatGPT. Estos riesgos incluían preocupaciones de que la tecnología eventualmente podría reemplazar las mentes humanas con otras no humanas más inteligentes, y la pérdida de control de nuestra civilización. La carta advierte que tales amenazas “no deben delegarse en líderes tecnológicos no elegidos”.

Sin embargo, algunas de las personas que piden la pausa de seis meses han invertido significativamente en IA o se han beneficiado de las inversiones de otros. Han visto el éxito de OpenAI con ChatGPT-4 para hacerse con la cuota de mercado de AI y la mentalidad del público. En otras palabras, algunos de las personas que firmaron la carta pueden estar pidiendo que se detenga el GPT-4, no para gestionar sus riesgos, sino para ponerse al día en la carrera armamentista de la IA.

Recomendado:  Se espera que el tamaño y las oportunidades del mercado de inteligencia artificial (IA) en el diagnóstico alcancen los USD 5225,4 millones para 2030, a una CAGR del 26,1 % según Polaris Market Research

¿Quién firmó la carta de Pausa AI?

Mi equipo de investigación analizó las primeras 500 firmas en la carta de Pausa. Descubrimos que el 20 % de los primeros 500 de esos nombres eran personas en la industria privada y probablemente invertían en IA. Incluían los directores ejecutivos o fundadores de Tesla, StabilityAI, Getty Images, DeepMind, DeepAI, Scale AI, Big Mother AI y NEXT.robotics. Estas mismas empresas han perdido terreno por el rápido éxito de ChatGPT-4 y es probable que se beneficien de la pausa de la IA.

Uno de los firmantes más curiosos es Elon Musk. Si bien Musk ha hablado repetidamente sobre los peligros de la inteligencia artificial, también continúa invirtiendo y construyendo tecnología de IA. No solo fue cofundador de OpenAI (aunque desde entonces se separó), es director designado de una nueva empresa cuyos documentos de incorporación se presentaron en marzo llamada X.ai Corp. Esta empresa parece ser el esfuerzo de Musk por captar al menos parte del mercado de IA. Además, semanas después de que Musk firmara la carta de Pausa, El independiente informó que Twitter había comprado 10,000 unidades de procesamiento de gráficos (GPU) en un esfuerzo por desarrollar su propio modelo de lenguaje grande similar a ChatGPT.

Y, aparentemente contradiciendo las preocupaciones planteadas sobre los riesgos de la IA en la carta de Pausa, Musk describió los autos de Tesla en 2021 como «robots semiinteligentes sobre ruedas». Una de las empresas de Musk, Neuralink Corporation, aspira a desarrollar chips de computadora que puedan implantarse en el cerebro para que los humanos puedan lograr lo que Musk ha llamado “simbiosis con inteligencia artificial”.

Una mejor manera de gestionar los riesgos de la IA

La carta de pausa se centra en gran medida en los riesgos futuros hipotéticos del desarrollo avanzado de IA. Fue presentado por el Future of Life Institute, que cree que la tecnología será fundamental para el futuro de la humanidad, ya sea a través de los viajes espaciales, la geoingeniería para abordar el cambio climático o la inteligencia artificial inteligente. Advierte que las empresas de IA han estado «encerradas en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable».

Recomendado:  Educación tecnológica efectiva impulsada a través de la inteligencia artificial

Otra organización, el Instituto DAIR, dice que este tipo de futuro no es inevitable (DAIR significa Investigación de Inteligencia Artificial Distribuida). Además, argumenta que existen riesgos actuales de la tecnología de inteligencia artificial existente que también deben gestionarse adecuadamente.

El Instituto DAIR, emitió su propia carta en respuesta a la carta de Pausa. Al igual que los firmantes de la carta de Pausa, el Instituto DAIR reconoce que el desarrollo de la IA es inevitable, pero argumentan que los riesgos no lo son. DAIR fue fundada y actualmente está dirigida por el Dr. Timnit Gebru, quien alguna vez codirigió el equipo de IA ética en Google. Fue despedida cuando se negó a retractarse de un trabajo de investigación del que era coautora sobre los peligros de los grandes modelos de lenguaje, como GPT-4. El equipo de DAIR cree que la IA puede ser una fuerza para el bien, siempre que su desarrollo y despliegue incluyan procesos diversos y deliberados.

En lugar de centrarnos en visiones de un futuro distópico distante gobernado por sistemas de IA incontrolables, DAIR argumenta que debemos centrarnos en los daños que presenta la IA en la actualidad, y responsabilizar a los fundadores, inversores y ejecutivos de estas empresas de tecnología por la construcción de sistemas que son beneficiosos para la humanidad en el futuro, muchos de los cuales son los «líderes tecnológicos no elegidos» que firmaron la carta del Future of Life Institute.

DAIR ofrece una guía clara para gestionar los riesgos de los modelos de tipo GPT-4, y exige una «regulación que imponga la transparencia». Tal regulación, por ejemplo, requeriría que las empresas aclaren cuándo las personas se encuentran con «medios sintéticos» (imágenes, audio, video y texto generados por IA) y que hagan públicos los datos utilizados para entrenar sus poderosos modelos de lenguaje grande. Solo mediante la documentación y divulgación de los datos utilizados para entrenar estos modelos se pueden descubrir y gestionar los sesgos. DAIR también argumenta que los más perjudicados por la IA, incluidos los inmigrantes, las mujeres, los artistas y los trabajadores temporales, deberían tener voz en cómo se desarrolla dicha tecnología.

Recomendado:  Robo-pingüino: cómo las aves artificiales están transmitiendo los secretos de las corrientes oceánicas | Océanos

Es una tontería creer que la IA se puede pausar, así que atribuyamos buenas prácticas de liderazgo a su gestión

GPT-4 ha desbloqueado nuestra imaginación colectiva de lo posible, planteando preguntas importantes sobre los riesgos potenciales. Sin embargo, pausar los avances en IA es como detener un tren parándose al frente y levantando ambas manos. Si tantas empresas y personas están invirtiendo su tiempo y dinero en IA, ningún gobierno y ciertamente ninguna carta puede detenerla, especialmente cuando las personas que piden detener la IA son las que están más invertidas financiera y emocionalmente en ella.

En cambio, es importante reconocer los riesgos de la IA y aplicarle las mismas prácticas de gestión que se atribuyen al buen liderazgo en cualquier organización: transparencia e inclusión. Al hacer que los conjuntos de datos utilizados para entrenar estos grandes modelos de lenguaje sean transparentes y atraigan una amplia gama de perspectivas diversas, la IA servirá a la humanidad, en lugar de descarrilarla.