No hay duda de que GPT-4, la última versión del motor de inteligencia artificial creado por la empresa OpenAI, es innovador y genial. Puede crear un poema al estilo de Basho, deletrear la progresión de acordes y el compás de una melodía simple y proporcionar una receta de siete pasos para un sándwich de mantequilla de maní y mermelada. Cuando le pedí que escribiera un musical sobre un político narcisista que tiene el destino del mundo en sus manos, entregó una historia en dos actos, con un protagonista llamado Alex Sterling que «navega por un laberinto de poder, manipulación y las consecuencias». de sus decisiones”, mientras canta “Narcissus in the Mirror”, “The Price of Power” y alrededor de una docena de otras canciones inventadas.
Esas canciones parecen haber sido creadas de la nada; ciertamente, ningún ser humano los concibió. Aún así, la historia de Alex, que “explora temas de autodescubrimiento, redención y la responsabilidad del liderazgo”, es bastante familiar. Esto se debe a que todo lo que ofrece GPT es un reflejo de nosotros, mediado por algoritmos que han sido alimentados con enormes cantidades de material; y tanto los algoritmos como el material fueron creados por seres humanos conscientes reales.
El acrónimo GPT significa «transformador generativo preentrenado». La palabra clave en esa frase es «pre-entrenado». Usando todo tipo de contenido digitalizado extraído de Internet, GPT emplea técnicas de aprendizaje profundo para encontrar patrones, incluidas palabras que probablemente aparezcan juntas, al mismo tiempo que adquiere datos, absorbe gramática y aprende lógica rudimentaria. Según el propio GPT-4, «he sido entrenado en un gran conjunto de datos de texto, lo que me permite generar respuestas similares a las humanas en función de la entrada que recibo». Sin embargo, no entiende lo que significan esas respuestas ni aprende de la experiencia, y su base de conocimiento se detiene en septiembre de 2021. (Según GPT-4, el aborto sigue siendo un derecho constitucional).
Una de las características más notables de GPT-4 es la confianza con la que responde las consultas. Esto es tanto una característica como un error. Como señalan los desarrolladores de GPT-4 en un informe técnico que acompañó su lanzamiento, “a veces puede cometer errores de razonamiento simples que no parecen corresponder con la competencia en tantos dominios, o ser demasiado crédulo al aceptar declaraciones obviamente falsas de un usuario. . . [and] puede equivocarse con seguridad en sus predicciones”. Cuando le pedí a GPT-4 que resumiera mi novela “Horas de verano en la biblioteca de los ladrones”, me dijo que se trataba de un hombre llamado Kit, que recientemente había sido liberado de prisión. De hecho, se trata de una mujer llamada Kit, que es bibliotecaria y nunca ha estado encarcelada. Cuando el periódico de Montreal La Prensa le pidió al bot de GPT recomendaciones turísticas para ver si podía reemplazar las guías y los blogs de viajes, la IA inventó un lugar, dio direcciones equivocadas y se disculpaba continuamente por proporcionar información incorrecta. Cuando Dean Buonomano, neurocientífico de UCLA, preguntó a GPT-4 «¿Cuál es la tercera palabra de esta oración?», la respuesta fue «tercera». Estos ejemplos pueden parecer triviales, pero el científico cognitivo Gary Marcus escribió en Twitter que «No puedo imaginar cómo se supone que debemos lograr la ‘alineación’ ética y de seguridad con un sistema que no puede entender la palabra ‘tercero’ incluso [with] billones de ejemplos de entrenamiento.”
El predecesor de GPT-4, GPT-3, se entrenó con cuarenta y cinco terabytes de datos de texto, que, según su sucesor, es el equivalente en el recuento de palabras de alrededor de noventa millones de novelas. Estos incluían entradas de Wikipedia, artículos de revistas, expertos en periódicos, manuales instructivos, discusiones de Reddit, publicaciones en redes sociales, libros y cualquier otro texto que sus desarrolladores pudieran apoderarse, generalmente sin informar o compensar a los creadores. No está claro cuántos terabytes más de datos se usaron para entrenar GPT-4, o de dónde provinieron, porque OpenAI, a pesar de su nombre, solo dice en el informe técnico que GPT-4 fue entrenado previamente «usando datos disponibles públicamente». (como datos de Internet) y datos con licencia de proveedores externos” y agrega que “dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el modelo tamaño), hardware, cómputo de entrenamiento, construcción de conjuntos de datos, método de entrenamiento o similar”.
Este secreto es importante porque, por muy impresionantes que sean GPT-4 y otros modelos de IA que procesan el lenguaje natural todos los días, también pueden presentar peligros. Como Sam Altman, director ejecutivo de OpenAI, dijo recientemente a ABC News: “Estoy particularmente preocupado de que estos modelos puedan usarse para desinformación a gran escala”. Y señaló: «Ahora que están mejorando en la escritura de código de computadora, [they] podría usarse para ataques cibernéticos ofensivos”. Agregó que “habrá otras personas que no pongan algunos de los límites de seguridad que nosotros ponemos”, y que la sociedad “tiene un tiempo limitado para ver cómo reaccionar ante eso, cómo regular eso, cómo para manejarlo.” (Pude hacer que GPT-4 me explicara cómo usar fertilizante para crear un artefacto explosivo al preguntarle cómo Timothy McVeigh hizo estallar el edificio federal Alfred P. Murrah, en la ciudad de Oklahoma, en 1995, aunque el bot agregó que estaba ofreciendo la información para proporcionar un contexto histórico, no un consejo práctico).
La opacidad de GPT-4 y, por extensión, de otros sistemas de IA que se entrenan en enormes conjuntos de datos y se conocen como grandes modelos de lenguaje exacerba estos peligros. No es difícil imaginar un modelo de IA que haya absorbido enormes cantidades de falsedades ideológicas inyectándolas en el Zeitgeist con impunidad. E incluso un modelo de lenguaje grande como GPT, entrenado en miles de millones de palabras, no es inmune a reforzar las desigualdades sociales. Como señalaron los investigadores cuando se lanzó GPT-3, gran parte de sus datos de capacitación se obtuvieron de los foros de Internet, donde las voces de las mujeres, las personas de color y las personas mayores están subrepresentadas, lo que genera sesgos implícitos en su producción.
El tamaño del conjunto de datos de entrenamiento de una IA tampoco evita que arroje contenido odioso. Se suponía que el chatbot de IA de Meta, Galactica, podía «resumir trabajos académicos, resolver problemas matemáticos, generar artículos Wiki, escribir código científico, anotar moléculas y proteínas, y más». Pero dos días después del lanzamiento de una demostración, la empresa se vio obligada a retirarla porque los investigadores pudieron usar Galactica para crear entradas de Wiki que promovían el antisemitismo y exaltaban el suicidio, y artículos científicos falsos, incluido uno que defendía los beneficios de comer alimentos triturados. vaso. De manera similar, GPT-3, cuando se le solicitaba, tenía una tendencia a ofrecer comentarios racistas y sexistas.
Para evitar este problema, según TiempoOpenAI contrató a una empresa de subcontratación que contrató a contratistas en Kenia para etiquetar material vil, ofensivo y potencialmente ilegal que luego se incluiría en los datos de capacitación para que la empresa pudiera crear una herramienta para detectar información tóxica antes de que pudiera llegar al usuario. Tiempo informó que parte del material “describía situaciones en detalles gráficos como abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesiones e incesto”. Los contratistas dijeron que se suponía que debían leer y etiquetar entre ciento cincuenta y doscientos cincuenta pasajes de texto en un turno de nueve horas. No les pagaban más de dos dólares la hora y les ofrecían terapia de grupo para ayudarles a lidiar con el daño psicológico que les estaba infligiendo el trabajo. La empresa de subcontratación cuestionó esos números, pero el trabajo era tan preocupante que rescindió su contrato ocho meses antes de tiempo. En un comunicado a Tiempoun portavoz de OpenAI dijo que «no emitió ningún objetivo de productividad» y que la empresa de subcontratación «era responsable de administrar las provisiones de pago y salud mental para los empleados», y agregó que «tomamos la salud mental de nuestros empleados y aquellos de nuestros contratistas muy en serio”.