Saltar al contenido

Inteligencia artificial: ¿Se rebelarán los robots?

14 de agosto de 2022

Podcast: El detalle

Suena como material de ciencia ficción, pero ¿qué tan preocupados deberíamos estar de que los sistemas de inteligencia artificial funcionen de forma deshonesta y potencialmente se vuelvan en nuestra contra?

(Nota: este podcast contiene spoilers de las películas La matriz y terminador, así como el mito griego del rey Midas. Todos estos tienen al menos 20 años de antigüedad, y el último se escribió hace aproximadamente 3000 años, por lo que si aún no se ha puesto al día con ellos, solo usted tiene la culpa).

En la película de 1999 La matrizque se desarrolla en un futuro cercano, la raza humana, preocupada por la creciente sensibilidad y la potencial villanía de las máquinas de inteligencia artificial (IA) que ha creado, toma la decisión de abrasar el cielo.

Razonan que sin una fuente de energía tan abundante como el sol, las máquinas, que dependen de la energía solar, quedarán paralizadas.

Pero su plan fracasa.

«El cuerpo humano genera más bioelectricidad que una batería de 120 voltios y más de 25.000 BTU de calor corporal», dice uno de los personajes principales de la película, Morpheus de Lawrence Fishburne, en una voz en off.

«Combinadas con una forma de fusión, las máquinas encontraron toda la energía que necesitarían».

Esto, según el profesor de derecho de la Universidad de Otago, Colin Gavaghan, director del Centro de Derecho y Política en Tecnologías Emergentes, resume claramente una perogrullada de los sistemas de IA.

«Algo que define a la IA es que encuentra sus propias soluciones imaginativas a los desafíos que le planteamos, a los problemas que le planteamos», dice.

Las cosas de la ciencia ficción

Los sistemas de inteligencia artificial que se ejecutan de manera deshonesta pueden parecer material de ciencia ficción, pero estos sistemas son cada vez más comunes en muchos elementos de alta tecnología de la sociedad, desde automóviles autónomos hasta asistentes digitales, identificación facial, recomendaciones de Netflix y mucho, mucho más. .

Recomendado:  Cómo hicimos Short Circuit, por Steve Guttenberg y John Badham | Película

Las capacidades de la inteligencia artificial están creciendo a buen ritmo; un ritmo que está superando los marcos regulatorios.

Y a medida que los sistemas de IA asumen tareas y responsabilidades cada vez más complejas, los teóricos e investigadores se han centrado en la cuestión de la falla catastrófica de la IA: ¿qué sucede si le damos a un sistema de IA mucho poder, mucha responsabilidad y no lo hace? ¿No se comportará como esperábamos?

Los beneficios y los riesgos

Cuando se le preguntó acerca de los beneficios potenciales de los sistemas sofisticados de inteligencia artificial en el futuro cercano, Gavaghan se mostró entusiasmado.

«Si piensa, por ejemplo, en el dominio médico, ahora se está convirtiendo en un gran desafío para los médicos manejar múltiples comorbilidades.

«Tratar de manejar todas las contraindicaciones y los efectos secundarios de esas cosas y cómo se relacionan entre sí… se vuelve diabólicamente complejo. Por lo tanto, los sistemas que pueden analizar un montón de conjuntos de datos diferentes y optimizar los resultados [would be beneficial].»

Pero como dice Gavaghan, parte del componente de ‘inteligencia’ de la IA es que estos sistemas aprenden, encuentran soluciones innovadoras a los problemas, y si bien eso puede parecer emocionante en teoría, ciertamente implica un riesgo.

Considere, por ejemplo, una IA encargada de mitigar o revertir los efectos del cambio climático.

Tal sistema podría concluir que el mejor curso de acción sería eliminar la principal causa del calentamiento global, que son los humanos.

«Una gran preocupación sobre la inteligencia general en este sentido es que, si no somos muy, muy cuidadosos con la forma en que hacemos las preguntas, cómo asignamos las tareas, entonces encontrará soluciones para esas tareas que literalmente harán lo que le decimos. , pero absolutamente no hagas lo que queríamos decir, o lo que queríamos».

Recomendado:  Big Data, Inteligencia Artificial y bioinformática: tres herramientas que salvan vidas

Gavaghan describe esto como el «problema del rey Midas», haciendo referencia al mito en el que el avaro rey frigio Midas desea tener la capacidad de convertir todo lo que toca en oro, sin pensar en las implicaciones a largo plazo.

El dilema: llegar a un acuerdo

La IA puede hacernos la vida mucho más fácil. Sus aplicaciones potenciales son casi ilimitadas. Es importante destacar que la investigación sobre IA se puede realizar en cualquier país, limitada solo por el tiempo, los recursos y la experiencia.

Esos beneficios indudables también podrían agriarse: los sistemas de armas controlados por IA o los vehículos autónomos o la guerra no suenan como un muy buen desarrollo para la humanidad.

Pero son posibles y, al igual que con las armas nucleares, si cree que sus rivales geopolíticos podrían estar desarrollando estas capacidades, es fácil justificar que las desarrolle usted mismo.

Aquí, dice Gavaghan, es donde los acuerdos o límites universales podrían ser útiles: los países de todo el mundo se reúnen, inician un diálogo y acuerdan cuáles podrían ser los límites del desarrollo de la IA.

Algunos investigadores han sugerido que la investigación futura de la IA debería guiarse por los valores y la moral, en lugar de prohibir ciertas capacidades. Pero eso trae consigo una nueva pregunta igualmente desafiante: ¿qué son exactamente los valores humanos?

Gavaghan trae a colación el ejemplo de una encuesta distribuida en todo el mundo: a los encuestados se les dio un escenario en el que un automóvil autónomo tenía que tomar una decisión en una fracción de segundo si continuar en su ruta planificada y chocar con un camión maderero que venía en sentido contrario. dirección o desviarse, salvando al conductor, pero chocando contra un grupo de ciclistas.

Recomendado:  Libélula robótica blanda señala alteraciones ambientales

“Algunas personas dijeron que deberías salvar a las personas en el automóvil. Algunos dijeron que deberías maximizar la cantidad de vidas salvadas. Algunos dijeron que deberías priorizar la vida de los niños sobre la vida de las personas mayores.

«¡En Francia, querían priorizar la vida de las personas atractivas y bien parecidas sobre otras personas!

«Entonces, absolutamente: ¿cuáles son los valores humanos? ¿Los valores de los magnates tecnológicos de Silicon Valley?»

Gavaghan dice que el futuro de la IA es un área en la que la filosofía, la tecnología y la legislación encajan, cada una es tan importante como la otra, y aunque todavía hay muchas cosas que se desconocen, el hecho de que sea un tema que se debate de manera más amplia es positivo.

«Es un debate que debe ampliarse… mucha de esta tecnología está aquí con nosotros ahora».

Descubre cómo escuchar y suscribirte El detalle aquí.

También puede mantenerse actualizado si nos gusta en Facebook o siguiéndonos en Gorjeo.