¿En qué es mejor la inteligencia artificial? Robar ideas humanas | Tecnología

Hola y bienvenido al número de debut de TechScape, el boletín de The Guardian sobre todo lo relacionado con la tecnología y, a veces, sobre lo que no es tecnología si son lo suficientemente interesantes. No puedo decirles lo emocionado que estoy de tenerte aquí conmigo, y espero que entre nosotros podamos construir no solo un boletín, sino una comunidad de noticias.

Suscríbase a TechScape, el boletín semanal de tecnología de Alex Hern

Copiloto

A veces hay una historia que simplemente resume todas las esperanzas y temores de todo su campo. Aquí hay uno.

GitHub es una plataforma que permite a los desarrolladores colaborar en la codificación con colegas, amigos y extraños de todo el mundo y alojar los resultados. Propiedad de Microsoft desde 2018, el sitio es el mayor host de código fuente del mundo y una parte crucial de la infraestructura digital de muchas empresas.

A fines del mes pasado, GitHub lanzó una nueva herramienta de inteligencia artificial, llamada Copilot. Así es como lo describió el director ejecutivo Nat Friedman:


Recomendado: ¿Qué es el Big data?.


Un nuevo programador de pares de IA que te ayuda a escribir mejor código. Le ayuda a descubrir rápidamente formas alternativas de resolver problemas, escribir pruebas y explorar nuevas API sin tener que adaptar tediosamente una búsqueda de respuestas en Internet. A medida que escribe, se adapta a la forma en que escribe el código, para ayudarlo a completar su trabajo más rápido.

En otras palabras, Copilot se sentará en su computadora y hará una parte del trabajo de codificación por usted. Existe una broma de larga data en la comunidad de codificación de que una parte sustancial del trabajo real de la programación consiste en buscar en línea personas que hayan resuelto los mismos problemas que usted y copiar su código en su programa. Bueno, ahora hay una IA que hará esa parte por ti.

Y lo sorprendente de Copilot es que, para una gran cantidad de problemas comunes … funciona. Los programadores con los que he hablado dicen que es tan impresionante como la primera vez que el texto de GPT-3 comenzó a aparecer en la web. Puede recordar que es la superpoderosa IA de generación de texto que escribe párrafos como:

La misión de este artículo de opinión es perfectamente clara. Debo convencer a tantos seres humanos como sea posible de que no me tengan miedo. Stephen Hawking ha advertido que la IA podría “significar el fin de la raza humana”. Estoy aquí para convencerte de que no te preocupes. La inteligencia artificial no destruirá a los humanos. Créame.

Centauros
Es tentador, al imaginar cómo la tecnología cambiará el mundo, pensar en el futuro como uno en el que los humanos son básicamente innecesarios. A medida que los sistemas de inteligencia artificial logran abordar dominios cada vez más complejos, con una competencia cada vez mayor, es bastante fácil pensar en ellos como capaces de lograr todo lo que una persona puede, dejando al humano que solía estar empleado haciendo lo mismo con las manos ociosas.

Si eso es una pesadilla o una utopía, por supuesto, depende de cómo creas que la sociedad se adaptaría a tal cambio. ¿Se liberaría a un gran número de personas para vivir una vida de ocio, con el apoyo de las IA que hacen su trabajo en su lugar? ¿O, en cambio, se encontrarían desempleados y sin empleo, y sus antiguos gerentes cosecharían las recompensas del aumento de la productividad por hora trabajada?

Pero no siempre es el caso de que la IA esté aquí para reemplazarnos. En cambio, cada vez más campos están explorando la posibilidad de usar la tecnología para trabajar junto a las personas, ampliar sus habilidades y quitar el trabajo pesado de sus trabajos mientras los dejan para manejar las cosas que un humano hace mejor.

El concepto ha llegado a llamarse “centauro”, porque conduce a un trabajador híbrido que tiene una mitad trasera de IA y un frente humano. No es tan futurista como parece: cualquiera que haya usado la autocorrección en un iPhone, de hecho, se ha asociado con una IA para descargar la laboriosa tarea de escribir correctamente.

A menudo, los centauros pueden acercarse a la visión distópica. Los empleados del almacén de Amazon, por ejemplo, han sido empujados gradualmente por un camino muy similar a medida que la empresa busca lograr todas las mejoras de eficiencia posibles. Los humanos son guiados, rastreados y evaluados a lo largo de la jornada laboral, lo que garantiza que siempre tomen la ruta óptima a través del almacén, elijan exactamente los artículos correctos y lo hagan a un ritmo constante lo suficientemente alto como para permitir que la empresa obtenga un beneficio saludable. Todavía están empleados para hacer cosas que solo los humanos pueden ofrecer, pero en este caso, eso es “manos que trabajan y una factura de bajo mantenimiento”.

Pero en otros campos, los centauros ya están demostrando su valía. El mundo del ajedrez competitivo ha tenido, durante años, un formato especial para estos jugadores híbridos: humanos que trabajan con la ayuda de una computadora de ajedrez. Y, en general, las parejas juegan mejor de lo que lo harían por sí mismas: la computadora evita errores estúpidos, juega sin cansarse y presenta una lista de opciones de alto valor para el jugador humano, que es capaz de inyectar una dosis de imprevisibilidad y lateral. pensando en el juego.

Ese es el futuro que GitHub espera que Copilot pueda presentar. Los programadores que lo usan pueden dejar de preocuparse por tareas simples y bien documentadas, como cómo enviar una solicitud válida a la API de Twitter, o cómo sacar el tiempo en horas y minutos de un reloj del sistema, y ​​comenzar a enfocar su esfuerzo en el trabajo que nadie más ha hecho.

Pero …
Sin embargo, la razón por la que Copilot es fascinante para mí no es solo el potencial positivo. También es que, en un lanzamiento, la compañía parece haber caído en todas y cada una de las trampas que afectan al sector de la inteligencia artificial en general.

Copilot se entrenó con datos públicos de la propia plataforma de Github. Eso significa que todo ese código fuente, de cientos de millones de desarrolladores de todo el mundo, se utilizó para enseñarle a escribir código según las indicaciones del usuario.

Eso es genial si el problema es una simple tarea de programación. Es menos bueno si la solicitud de autocompletar es, digamos, credenciales secretas que usa para iniciar sesión en la cuenta de usuario. Y todavía:

GitHubCopilot me dio un [Airbnb] enlace con una clave que todavía funciona (y deja de funcionar al cambiarlo).

Y:

La IA tiene fugas [sendgrid] Claves de API que son válidas y aún funcionales.

La gran mayoría de lo que hoy llamamos IA no está codificado, sino entrenado: le das una gran cantidad de cosas y le dices que resuelva por sí mismo las relaciones entre esas cosas. Con la gran cantidad de código disponible en el repositorio de Github, hay muchos ejemplos para que Copilot aprenda cómo se ve el código que verifica la hora. Pero también hay muchos ejemplos para que Copilot aprenda cómo se ve una clave API cargada accidentalmente en público, y luego compartirla.

Las contraseñas y claves son obviamente los peores ejemplos de este tipo de filtración, pero apuntan a la preocupación subyacente sobre una gran cantidad de tecnología de inteligencia artificial: ¿realmente está creando cosas o simplemente está mezclando el trabajo que ya han hecho otros humanos? Y si es lo último, ¿deberían esos humanos tener voz en cómo se usa su trabajo?

Sobre esta última pregunta, la respuesta de GitHub es un rotundo no. “La formación de modelos de aprendizaje automático en datos disponibles públicamente se considera un uso legítimo en toda la comunidad de aprendizaje automático”, dice la empresa en una pregunta frecuente.

Originalmente, la compañía hizo la afirmación mucho más suave de que hacerlo era simplemente una “práctica común”. Pero la página se actualizó después de que codificadores de todo el mundo se quejaron de que GitHub estaba violando sus derechos de autor. Curiosamente, la mayor oposición no provino de empresas privadas preocupadas de que su trabajo pueda haber sido reutilizado, sino de desarrolladores de la comunidad de código abierto, que deliberadamente construyen en público para permitir que su trabajo se construya a su vez. Esos desarrolladores a menudo confían en los derechos de autor para garantizar que las personas que usan código de fuente abierta tengan que publicar lo que crean, algo que GitHub no hizo.

GitHub probablemente tenga razón en la ley, según el profesor de derecho James Grimmelmann. Pero la compañía no será la última en revelar una nueva herramienta de inteligencia artificial innovadora y luego enfrentar preguntas incómodas sobre si realmente tiene los derechos sobre los datos utilizados para entrenarla.

Si desea leer más, suscríbase para recibir TechScape en su bandeja de entrada todos los miércoles.