Los informáticos que se toman en serio la Singularidad deberían explicar cómo podría surgir en una computadora. Pocos comentaristas extienden su predicción de una Singularidad al «deseo» real en una computadora, Omohundro [Omohundro] una rara excepción. Muchas críticas a la predicción de la Singularidad, especialmente las expresadas por Kurzweil. [Kurzweil]han cuestionado su atribución de ímpetu a la aceleración del avance tecnológico, y el artículo de Wikipedia [Singularity] se concentra en ese aspecto. Muchos de los que están de acuerdo con la predicción de Kurzweil dan a entender que, de alguna manera, una computadora puede desear alguna cosa. Decir que un agente de IA podría «volverse deshonesto» [Fitzgerald] podría significar que se vuelve contra la humanidad… o podría significar que desarrolla alguna actividad de salida indeseable que no fue anticipada por sus programadores. Esas son amenazas bastante diferentes, pero las afirmaciones a veces se combinan. Nick Bostrom, bajo una atenta lectura, asume que la posesión de un gol equivale a volición [Bostrom, Ch. 7 and 9]. Pero, ¿cómo llegó allí? Los objetivos, por supuesto, están programados de antemano; mientras que hay mucho riesgo en ese escenario [Amodei]no es el problema aquí.
La explicación mediante la tecnología que avanza rápidamente no es suficiente para dar forma a una voluntad clara. Los avances tecnológicos en otras máquinas no conducen a actos de voluntad; incluso el gran colisionador de hadrones no parece estar preparado para apoderarse del mundo. Cuando descubre que su impresora está imprimiendo una página en blanco tras otra, no activa la alarma de que el demonio de la impresora en línea consume todos los recursos disponibles. Alpha Go no «quiere» ganar (aunque la gente dice exactamente eso). Una red neuronal no «quiere» saber cómo es una cebra; el código simplemente suma o resta de los valores de los pesos en función de alguna comparación numérica. Porque nuestra articulación está empobrecida, lo que obliga a confiar en el lenguaje antropomórfico. [Hill2018], esto nos suena a ejercicios de voluntad. Son, más bien, manifestaciones de voluntad, que debían precederlas.
¿Cómo se vería la volición en una computadora (bajo la tesis de Church-Turing)? No importa si el deseo o deseo proviene directamente del código o de un procesamiento complejo o de una programación maliciosa, ¿cuáles son las preguntas pertinentes para hacer sobre la implementación real de V, una noción, un deseo o una necesidad deliberada? Podemos, como lo hacen felizmente los científicos informáticos, representar formalmente la parte de acción, de varias maneras, por ejemplo, primitivas como INTEND
, GOAL
, PLAN
o DESIRE
como funciones o predicados, o Will-to()
o Wants(A,P)
, con la intención del programador de significar que algún agente artificial A quiere que algún estado de cosas proposicional P se cumpla. Pero estas son formulaciones ad hoc; deseamos generar, no asumir, esos objetos derivados. Tales formalizaciones de lógica matemática pueden agruparse en términos generales como operador primitivo, operador modal o predicado. Un operador convierte (algún tipo de cosa) V en una meta, y un predicado afirma que (algún tipo de cosa) V es una meta. Pero…
lo que queremos es V en sí mismo. ¿Cómo llegó allí? Hagamos el movimiento obvio y definamos un acto de voluntad V como lo que produce una meta, sin especificar si V es como un parámetro de algo o como una función de algo. No es la estructura, el tipo o la especificación de V lo que está en cuestión; es la existencia. ¿Podría ser una propiedad emergente? en ¿una máquina de Turing? Rechazamos eso: las propiedades emergentes son proyectadas desde el exterior por nosotros. Tenemos curiosidad por saber si una computadora en sí misma realmente puede desear alguna cosa.
Considere una máquina de Turing, compuesta por lo habitual:
〈 Símbolos S (con un espacio en blanco)
Estados Q (con un estado de inicio)
Una función T (transiciones) de { estado × símbolo } a {{ estado × símbolo } ∪ { L, R}} 〉
¿Existen concepciones de un objetivo compatibles con la MT? Si muchos. Consulte la entrada Lógica de la acción en la Enciclopedia de Filosofía de Stanford. [SEP-LA, Section 4]. ¿Hay alguno que muestre de dónde viene tal objetivo, que nos muestre cómo se ve una V, de modo que produzca un objetivo? Ninguno. ¿Dónde aparecería, en el cuádruple o en la cinta, en el algoritmo o en los datos? ¿Es una volición un estado? No, si son datos, eso plantea la pregunta, y si es un estado, todavía tenemos que preguntarnos qué lo origina de modo que esté incluido en Q, lo que también se aplica a las transiciones en T. ¿Podría ser V una mutación, un cambio de bit aleatorio? Eso viola la idea misma de volición, que es deliberada.
¿O es dinámico? Las máquinas de Turing pueden construir sus propios programas escribiendo en la cinta, por supuesto; presumiblemente, así se programaría la formalización de una meta. Podemos seguir el ejemplo de Schroeder [Analysis of Anscombe, SEP-Desire]: «Las creencias son como oraciones declarativas, que son satisfechas (hechas verdaderas) por si el mundo tal como es se ajusta a ellas, pero los deseos son como oraciones imperativas, que son satisfechas (cumplidas) por cambios en el mundo que ponen al mundo en conformidad con a ellos.» Sabemos cómo establecer o traducir creencias (como forumlae), pero ¿cómo traduciríamos un deseo? Poner el mundo en conformidad requiere ejecución. En mi propia vista [Hill2016], los algoritmos son abstracciones imperativas, mientras que las máquinas de Turing (sus implementaciones) son abstracciones declarativas. (Las máquinas de Turing definen acciones, pero no las realizan). Bien, entonces, ¿podría una volición ser un proceso de ejecución? Si es así, no es una TM.
Nada de esto capta del todo el quid de la cuestión. A los informáticos nos gustaría una respuesta en términos que, aunque no sean computables por Turing, sean compatible con Turing: ¿Cómo es que una TM falla en mantener la volición? ¿Podemos aislar el carácter de falto que elude el cálculo?
Referencias
[Amodei] Problemas concretos en seguridad de la IA. 2016. Dario Amodei, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman y Dan Mané. preimpresión de arXiv arXiv:1606.06565. [Bostrom] Nick Bostrom. 2014. Superinteligencia. [Fitzgerald] Kris Fitzgerald. 2018. ¿Podemos evitar que la IA se vuelva deshonesta? Forbes. [Hill2016] Robin K. 2016. «Qué es un algoritmo», Filosofía y tecnología 29:1. [Hill2018] Robin K. Colina. 2018. Articulación de Responsabilidad de Decisión. Blog@CACM. 21 de mayo de 2018. [Kurzweil] Ray Kurzweil. 2005. La singularidad está aquí. Pingüino EE.UU. [Omohundro] Stephen M. Omohundro. 2018. Las unidades básicas de IA. En Inteligencia artificial Seguridad y protección. Chapman y Hall/CRC. [SEP-Desire] Tim Schroeder. 2020. Deseo. La Enciclopedia de Filosofía de Stanford (Edición de verano de 2020), Edward N. Zalta (ed.). [SEP-LA] Krister Segerberg, John-Jules Meyer y Marcus Kracht. La lógica de la acción. La Enciclopedia de Filosofía de Stanford (Edición de verano de 2020), Edward N. Zalta (ed.). [Singlularity] Colaboradores de Wikipedia. (2022, 14 de mayo). Singularidad tecnológica. En Wikipedia, la enciclopedia libre. Consultado el 27 de mayo de 2022.Robin K. Hill es profesor en el Departamento de Ciencias de la Computación y afiliado tanto del Departamento de Filosofía y Estudios Religiosos como del Instituto de Investigación en Humanidades de Wyoming en la Universidad de Wyoming. Ha sido miembro de ACM desde 1978.
entradas no encontradas