Entrevista a Beth Singler: Los peligros de tratar a la IA como a un dios

Beth Singler

Beth Singler, antropóloga de IA en la Universidad de Cambridge

Dave Stock

Nos estamos acostumbrando a la idea de que la inteligencia artificial influya en nuestra vida diaria, pero para algunas personas, es una tecnología opaca que representa más una amenaza que una oportunidad. La antropóloga Beth Singler estudia nuestra relación con la inteligencia artificial y la robótica y sugiere que la falta de transparencia detrás de ella lleva a algunas personas a elevar la inteligencia artificial a una misteriosa figura parecida a una deidad.

“La gente puede hablar de ser bendecida por el algoritmo”, dice Singler, pero en realidad probablemente se deba a que se está tomando una decisión muy distinta a nivel corporativo. En lugar de temer una rebelión de robots o una versión divina de la IA que nos juzgue, le dice a Emily Bates que debemos identificar y ser críticos con quienes toman decisiones sobre cómo se utiliza la IA. «Cuando el miedo se vuelve demasiado absorbente y te distrae de esas preguntas, creo que eso es una preocupación», dice Singler.


Recomendado: ¿Qué es el Big data?.


Emily Bates: Se describe a sí mismo como alguien que “piensa en lo que pensamos los humanos sobre las máquinas que piensan”. ¿Puede explicar lo que quiere decir con eso?
Beth Singler: Soy antropóloga de la IA, así que estudio a los humanos tratando de entender cómo [AI] impacta sus vidas. Como campo, involucra tantos aspectos diferentes de la tecnología, desde el reconocimiento facial, los sistemas de diagnóstico, los sistemas de recomendación, y para el público en general, todos esos tipos de detalles quedan incluidos en este título de IA. [And] No son solo los usos simples de la IA, sino cómo se imagina que es lo que también refleja lo que pensamos como el futuro de la IA en términos de cosas como robots, rebeliones de robots, máquinas inteligentes que toman el control.

¿Hay algo de lo que debamos preocuparnos en la IA? ¿Existen prejuicios arraigados?
Todo lo que creamos como humanos refleja nuestros contextos, nuestra cultura, nuestros intereses y, cuando se trata de sistemas algorítmicos de toma de decisiones, los datos que elegimos ingresar en ellos conducen a ciertos resultados. Podemos decir basura dentro, basura fuera. Pero también queremos tener mucho cuidado de no personificar tanto a la IA que decidamos que tiene una agencia que en realidad no tiene. Tenemos que tener muy claro que siempre hay humanos en el circuito.

¿Por qué pensamos que si una IA se vuelve poderosa, querrá gobernarnos y ponernos bajo la bota?
Muchas veces, proviene de nuestras suposiciones sobre cómo tratamos a los demás. Cuándo [Western civilisations] difundido por todo el mundo y encontrado culturas indígenas, no necesariamente las hemos tratado particularmente bien, y podemos ver que este mismo tipo de cosas se amplía. Si nos consideramos la especie más inteligente del planeta y hemos destruido entornos y hemos puesto a los animales en peligro, ¿por qué no una inteligencia superior a la nuestra nos hace lo mismo? O si vemos la distancia entre nosotros y las hormigas como equivalente a la distancia entre una superinteligencia y nosotros, entonces tal vez simplemente no le importe. Va a reaccionar de una manera particular beneficiosa para sí mismo, pero eso podría no ser tan beneficioso para los humanos.

¿Crees que el miedo a la IA está bien fundado? ¿Van a hacerse cargo los robots?
Creo que en realidad es más interesante que sigamos haciendo esa pregunta, que sigamos volviendo a esta narrativa del miedo, que estemos preocupados por las cosas que estamos creando, cómo podrían ser como nosotros en términos de inteligencia, pero también cómo podrían ser como nosotros en términos de nuestros malos rasgos, como nuestra rebeldía o nuestro egoísmo o violencia. Creo que muchas veces proviene de nuestro sentimiento de que solo debería haber mentes en ciertos lugares. Así que nos preocupamos mucho cuando vemos algo que actúa como un ser humano que tiene el mismo nivel de inteligencia o incluso la aprehensión de la sensibilidad en un lugar donde no lo esperamos.

¿A qué distancia estamos y cómo sabremos cuándo hemos creado una máquina que tiene el mismo nivel de inteligencia que nosotros?
Todo se reduce a lo que concebimos como inteligencia y cómo describimos el éxito en la IA. Entonces, durante mucho tiempo, desde la concepción misma del término inteligencia artificial, se trata de ser muy bueno para hacer tareas simples, tareas limitadas en un dominio muy simplista. Y luego, con el tiempo, esos dominios se vuelven más complicados, pero aún así, se trata de tener éxito. Así que toda la historia de los juegos de computadora, por ejemplo, desde los simples tableros de tic-tac-toe y ajedrez, hasta Go y Starcraft II es de desarrollo, pero todavía se enmarca en el éxito y el fracaso. Y debemos preguntarnos, ¿es eso realmente lo que pensamos que es la inteligencia? ¿La inteligencia es buena en juegos de esa naturaleza?

¿Hay algún juego que crea que, cuando una computadora puede jugarlo con éxito, podría haber alcanzado la inteligencia de nivel humano?
Soy un geek enorme e impenitente, y realmente disfruto jugando Calabozos y Dragones. Y creo que lo realmente valioso de esa forma de juego es que se trata de una narración colaborativa. Se trata mucho más de la experiencia de jugar juntos que del éxito o el fracaso. Y creo que si pudieras tener una IA que pudiera entender esa colaboración, estarías mucho, mucho más cerca de algo que podríamos considerar como inteligencia encarnada o inteligencia humana comunitaria. El problema que surge es que ese podría ser el salto a la inteligencia artificial general para poder hacer eso.

Imagen predeterminada de New Scientist

El jugador surcoreano de Go Lee Sedol interpreta a AlphaGo de Deepmind

Lee Jin-Man / AP / Shutterstock

¿Qué es la inteligencia artificial general?
La idea es que si la IA pudiera alcanzar la inteligencia de nivel humano, podría superarla en superinteligencia y luego tal vez entrar en un área que ni siquiera entendemos por completo, donde su inteligencia está tan lejos de nuestra concepción que sería el equivalente. de una singularidad cosmológica que tienes en un agujero negro o al comienzo del universo. No sabemos cómo concebir o describir realmente eso, [although] la ciencia ficción intenta ir allí con ideas sobre máquinas inteligentes y sensibles que reaccionan de manera particular a los humanos, a veces de manera bastante negativa. O podría ser que nosotros mismos seamos arrastrados hacia esta inteligencia y se convierta en una especie de momento de éxtasis secular.

Hablas de que esta singularidad tecnológica se convierte en una figura casi parecida a una deidad. ¿Qué quieres decir con eso?
Para algunas personas, podría ser una transformación literal, que esto es lo más cercano a la existencia de un dios como podríamos estarlo, y para otras, es más una relación metafórica entre nuestra idea de lo que debería ser un dios y cuán poderoso este potencial. singularidad AI sería. Hemos tenido formas de caracterizar a las deidades monoteístas como omnipresentes, omniscientes y, con suerte, también omnibenevolentes. Y cuando empiezas a hablar de esta singularidad tan poderosa, parece tener algunos de esos atributos, al menos en esta teorización al respecto.

¿Cuáles podrían ser las consecuencias de eso?
Para algunos grupos que generalmente se describen como transhumanistas, esto podría ser un resultado muy positivo. Piensan que esta podría ser una ruta hacia alguna forma de inmortalidad, que podríamos escapar de nuestros cuerpos físicos y convertirnos en mentes cargadas en el espacio de la singularidad y, por lo tanto, vivir para siempre, poder explorar el universo y experimentar todo lo que es posible experimentar. A otros les preocupa que una singularidad tecnológica pueda tener consecuencias negativas, una versión exponencial de la rebelión de los robots en la que esta versión divina de la IA nos juzga, no nos agrada, se deshace de nosotros por varias razones. Entonces hay dos tipos de interpretaciones.

¿Existe el peligro de que comencemos a tratar a la IA de una manera demasiado reverente, casi como si fuera un dios?
Parte de mi investigación se centra específicamente en dónde no solo personificamos la IA, sino que de alguna manera deificamos la IA y comenzamos a pensar en los algoritmos detrás de escena que toman decisiones que realmente nos bendicen de alguna manera. Si vas a Spotify y escuchas una canción particularmente útil o relevante, o si eres un productor de contenido y pones algo en YouTube y te va muy bien porque el algoritmo lo resalta de manera particular, debido a la falta de transparencia sobre cómo se emplea la inteligencia artificial y qué tipo de valores importan las corporaciones a la inteligencia artificial, parece que está actuando de manera misteriosa. Y luego nos basamos en nuestro lenguaje existente y narrativas y tropos de contextos culturales existentes como ideas religiosas. Y por lo tanto, llevamos a hablar de la IA como una forma de dios que nos supervisa.

¿Cuáles son las posibilidades de que seamos creaciones de algo con un nivel de inteligencia que hemos superado?
Nuevamente, esto cae dentro de esos patrones teológicos teístas de ideas sobre un dios creador, una entidad superior que nos creó. También se basa en algunas ideas sobre si vivimos en un universo simulado, al estilo de La matriz, porque el argumento es que si podemos crear juegos de cierta sofisticación, ¿qué significa que una entidad mayor no creó básicamente esa simulación para que vivamos? Y ese tipo de preguntas mantienen a algunas personas despiertas hasta altas horas de la noche. Pero creo que a veces puede actuar como una distracción y, de hecho, algunas de las personas que están adoptando este tipo de narrativas también están utilizando la IA de formas prácticas muy limitadas que ya están afectando nuestras vidas. Entonces, la simulación en la que vivimos ya es la simulación de ciertas corporaciones y multimillonarios sobre los que realmente debemos ser muy críticos. La gente podría hablar de ser bendecida por el algoritmo. Pero en realidad, es una decisión muy distinta que se toma a nivel corporativo que ciertas historias se destaquen sobre otras.

¿Crees que tememos demasiado a la IA?
Creo que hay un cierto nivel saludable de miedo cuando se trata de las aplicaciones de IA que podría llevar a comprender lo que está sucediendo con ella, a ser crítico, a tratar de rechazar esta falta de transparencia, a identificar quién está detrás de escena y a hacer decisiones sobre cómo se utiliza la IA. Creo que cuando el miedo se vuelve demasiado absorbente y te distrae de esas preguntas, creo que eso es una preocupación.

¿Cuál es su esperanza para el futuro de la IA?
Me gustaría ver la tecnología utilizada de manera apropiada, justa y responsable, y creo que ese es un deseo bastante común y estamos viendo cada vez más impulsos hacia eso. Mis preocupaciones son más sobre la participación humana en la toma de decisiones sobre cómo se usa la IA que sobre la IA de huir y convertirse en algo desastroso en sí mismo.

Científico nuevo video
Vea el video que acompaña a esta función y muchos otros artículos en youtube.com/newscientist

Más sobre estos temas: