La llegada de GPT-4 encendió el mundo y allanó el camino para posibilidades notables. La última versión del modelo de lenguaje de OpenAI muestra que la inteligencia artificial (IA) ya ha comenzado a pensar como nosotros más que nunca.
Entonces, ¿adónde va a llevar esto? ¿Se supone que debemos tener miedo de que los robots obtengan libre albedrío para rebelarse contra la humanidad, o aún así podemos sostenernos para trabajar con ellos en armonía para la mejora continua?
Es reconocible que la IA progresa mucho antes de lo previsto. Recientemente, fuimos testigos de los primeros pasos y desarrollos en ciencia de datos, computación cognitiva, aprendizaje profundo y el resto.
Mientras las máquinas evolucionaban, sus habilidades computacionales se expandieron hacia el arte, la investigación y la educación. Eran candidatos a aprendices que se preparaban para varias entrevistas de trabajo. Se convierten de herramientas funcionales a extensiones, más como asistentes.
Podemos ver las marcas de la IA en muchas aplicaciones, motores de búsqueda e interfaces de usuario. OpenAI es una de las empresas de investigación más conocidas, famosa por productos como DALL-E, un sistema que crea imágenes realistas mediante descripciones, y ChatGPT, un chatbot que puede dar respuestas y satisfacer demandas. En este caso, GPT se convierte en un punto focal entre ellos.
Los transformadores preentrenados generativos (GPT) son modelos de IA de procesamiento de lenguaje que utilizan redes neuronales para generar textos similares a los humanos. GPT funciona con indicaciones dadas para responder preguntas, resumir o traducir textos e incluso escribir códigos.
Como versión de última generación, GPT-4 tiene nuevas funciones y capacidades multimodales, como aceptar textos e imágenes como entradas, interpretar indicaciones visuales, analizar memes, comprender mejor los matices y crear sitios web escaneando notas escritas a mano. Además, los puntos de referencia de rendimiento muestran que GPT-4 obtuvo una puntuación más alta en exámenes como SAT y Uniform Bar Exam, admite más idiomas y tiene menos alucinaciones que los modelos anteriores.
Los límites de las evaluaciones de habilidades completas aún son cantidades desconocidas por ahora. Sin embargo, ya existen colaboraciones con algunas aplicaciones en varios campos.
Be My Eyes, una aplicación móvil que ayuda a las personas con discapacidad visual, anunció que usarían GPT-4 como una herramienta de voluntariado virtual para asistencia visual. Además, el modelo de IA se mostrará en plataformas educativas como Duolingo y Khan Academy como tutores digitales.
Como puede ver, la inteligencia artificial comenzó a pasar las entrevistas de trabajo una por una, llevando a cabo más negocios con roles más destacados. Estos hechos recuerdan argumentos sensacionalistas sobre los resultados finales de la IA avanzada.
El amanecer de la singularidad
Ray Kurzweil, un científico informático de renombre mundial, tiene un escenario futuro hipotético llamado «singularidad tecnológica» que afirma que los robots superarán a los humanos al final.
Según Kurzweil, la Inteligencia General Artificial (AGI) podría ser una parte inseparable de los humanos a través de las interfaces cerebro-computadora. Por lo tanto, proporcionar una conciencia colectiva puede permitir que el AGI alcance la singularidad y se convierta en la inteligencia superior.
Si bien afirmó que estos eventos pueden ocurrir pronto, aproximadamente para el 2045, los posibles resultados no están claros. Este camino puede llevarnos a la carga mental y la inmortalidad, o bien a las ciberguerras y al colapso de las sociedades. Cualquiera que sea el caso, el curso de los acontecimientos depende de nuestras acciones. GPT y modelos de IA similares utilizan algoritmos de aprendizaje profundo para tomar señales de conjuntos de datos basados en Internet.
La tecnología Reinforcement Learning from Human Feedback (RLHF) crea un vasto recurso para enseñar a las máquinas inteligentes. Este método puede parecer efectivo pero aún conlleva algunos riesgos probables que causan la pérdida de control.
Norman: Algoritmo pesimista
Norman, la primera IA psicópata del mundo, dio un excelente ejemplo a este respecto. Como su nombre lo indica, Norman es un algoritmo pesimista inspirado en Norman Bates de la clásica película de terror Psycho de Hitchcock.
Norman está entrenado con datos de los rincones más oscuros de la web para realizar subtítulos de imágenes con una percepción inquietante. Los programadores de este algoritmo psicópata intentaron mostrar que los datos sesgados tienen más importancia en los peligros de que la inteligencia artificial salga mal.
Además, Norman no es el único corrompido por los datos defectuosos. Otros robots exhiben actitudes negativas en la línea de la discriminación racial y el apartheid de género debido a los algoritmos de aprendizaje automático equivocados.
Desafortunadamente, crear un villano con códigos parece más posible de lo que creíamos. Por supuesto, no hay forma de saber que un día, algún robot al azar decidirá convertirse en una mente maestra malvada y apoderarse del mundo, pero si eso sucede, al menos sabremos que no sería una decisión de AI.
El futuro con amigos
Dejando a un lado el peor de los casos, aún es necesario abordar algunos problemas éticos crecientes con respecto a las relaciones de asociación con nuestros compañeros de trabajo virtuales.
Dado que GPT y productos de software similares están involucrados en nuestras vidas, muchas personas temen que la IA desplace trabajos o utilice programas con pretextos. Sin embargo, aunque la inteligencia artificial cambiará los flujos de trabajo a gran escala, muchos expertos aseguran que las personas mantendrán sus roles importantes en los mercados laborales.
Por otro lado, además de todos los pasos positivos, los modelos GPT también conducen a malas prácticas. Los riesgos legales se extienden desde problemas de derechos de autor hasta mala conducta oficial. Incluso hacer trampa en los ensayos se pone de moda, y los académicos comienzan a preocuparse por esta delicada situación.
Resulta que un trabajo de investigación, ‘Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT’ escrito por ChatGPT mismo, afirma sus preocupaciones decentemente.
Hay casos más complejos además de este. Por ejemplo, DoNotPay es una aplicación impulsada por IA que ayuda a los clientes a luchar contra las grandes corporaciones y tiene como objetivo hacer que la información legal y la autoayuda sean accesibles para todos.
Inicialmente, su misión era solo resolver problemas como vencer multas de estacionamiento, apelar tarifas bancarias y demandar llamadas automáticas. Actualmente, agregan un nuevo servicio a su definición de trabajo: hospedar al primer abogado robot para asesorar a los acusados en la corte. Esta tecnología está diseñada en formato de chat; se ejecutará en el teléfono inteligente del acusado, escuchará los comentarios e instruirá al cliente sobre qué decir a continuación.
Instantáneamente, eso se convierte en una causa célebre sacada directamente de la ciencia ficción, y hasta ahora no parece haber ningún problema. Sin embargo, después de que la trama se complica, el abogado de chatbot de DoNotPay es demandado por el bufete de abogados estadounidense Edelson, acusado de operar sin un título en derecho. Edelson ha afirmado que el servicio es ilegal por hacerse pasar por un profesional autorizado; además, ningún abogado supervisa la empresa y sus documentos legales son deficientes.
Joshua Browder, el fundador y director ejecutivo de DoNotPay, negó las acusaciones. Browder afirmó que estos reclamos no tenían mérito y que se defenderían en la demanda. Agregó que incluso podrían usar a su abogado robot en la corte para defenderse.
Probablemente sería demasiado pronto para tener juicios definitivos para este caso, pero sigue algunas sospechas sobre la confiabilidad de las fuentes. A pesar de los logros de GPT-4, OpenAI también es muy criticado por no ser una empresa sin fines de lucro de código abierto como solía ser.
Mientras que algunas personas se quejan de que el estado actual de la empresa se desvía, algunos apoyan los términos de confidencialidad contra posibles amenazas. Sam Altman, creador de ChatGPT y director ejecutivo de OpenAI, advirtió que GPT se les está escapando de control; podría usarse con intenciones maliciosas como desinformación, abuso del cargo y ciberataques ofensivos.
Aquí está el problema, tener acceso exclusivo y autoridad total sobre la IA avanzada puede crear muchos peligros en muchas manos. Por ejemplo, se puede desarrollar como una herramienta de manipulación por parte de los gobiernos y las corporaciones para buscar más poder, o se puede usar con intenciones delictivas en el público en general.
Cobra protagonismo tomar medidas de seguridad más imprescindibles como en las tres leyes de la robótica. Estas reglas ficticias aparecen en las novelas escritas por Isaac Asimov, uno de los mejores autores de ciencia ficción de la historia. Las leyes de Asimov están diseñadas para formar una interacción segura entre los robots y la humanidad para el bienestar social.
De acuerdo con estas instrucciones, un robot no debe dañar a los humanos, obedecer las órdenes de los humanos y protegerse a sí mismo si tal protección no entra en conflicto con la primera o la segunda ley. Sin embargo, los robots a menudo pueden fallar en mantenerse dentro de los límites debido a graves contradicciones en las reglas.
La inteligencia artificial en la vida real no es diferente. Es una bendición mixta que encuentra conflictos de interés. Tiene el potencial de mejorar nuestra calidad de vida o también de deslizarnos hacia el caos. Tal vez GPT-4 no sea una tecnología tan innovadora como parece, pero demuestra que estamos en la era de una nueva revolución.