Rumman Chowdhury a menudo tiene problemas para dormir, pero, para ella, este no es un problema que requiera solución. Tiene lo que ella llama el «cerebro de las 2 am», un tipo diferente de cerebro de su cerebro cotidiano, y en el que confía para problemas especialmente urgentes o difíciles. Las ideas, incluso las de pequeña escala, requieren cuidado y atención, dice, junto con una especie de intuición alquímica. “Es como hornear”, dice ella. “No puedes forzarlo, no puedes subir la temperatura, no puedes hacer que vaya más rápido. Tomará el tiempo que sea necesario. Y cuando termine de hornearse, se presentará”.
id=»f36e0b4d-de85-4713-8b46-c602e9bf4902″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=»dcr-11ra563″>
Fue el cerebro de las 2 a. m. de Chowdhury el que acuñó por primera vez la frase «subcontratación moral» para un concepto que ahora, como una de las principales pensadoras en inteligencia artificial, se ha convertido en un punto clave en la forma en que considera la responsabilidad y la gobernanza cuando se trata del impacto potencialmente revolucionario. de IA.
La subcontratación moral, dice, aplica la lógica de la conciencia y la elección a la IA, lo que permite a los tecnólogos reasignar de manera efectiva la responsabilidad de los productos que construyen en los productos mismos: el avance técnico se convierte en un crecimiento predestinado y el sesgo se vuelve intratable.
“Nunca dirías ‘mi tostadora racista’ o ‘mi computadora portátil sexista’”, dijo en una charla de Ted de 2018. “Y, sin embargo, usamos estos modificadores en nuestro lenguaje sobre inteligencia artificial. Y al hacerlo, no nos hacemos responsables de los productos que construimos”. Escribirnos a nosotros mismos fuera de la ecuación produce una ambivalencia sistemática a la par de lo que la filósofa Hannah Arendt llamó la «banalidad del mal»: la ignorancia voluntaria y cooperativa que permitió el Holocausto. “No se trataba solo de elegir a alguien para el poder que tenía la intención de matar a tanta gente”, dice ella. “Pero es que naciones enteras de personas también tomaron trabajos y posiciones e hicieron estas cosas horribles”.
Chowdhury en realidad no tiene un título, tiene docenas, entre ellos Responsable de inteligencia artificial en Harvard, consultora de políticas globales de inteligencia artificial y exdirectora del equipo Meta de Twitter (Ética, transparencia y responsabilidad del aprendizaje automático). AI le ha estado dando cerebro a las 2 a.m. durante algún tiempo. En 2018, Forbes la nombró una de las cinco personas que «construyeron nuestro futuro de IA».
Como científica de datos de oficio, siempre ha trabajado en un ámbito desordenado e indefinible, atravesando los ámbitos de las ciencias sociales, el derecho, la filosofía y la tecnología, mientras consulta con empresas y legisladores para dar forma a políticas y mejores prácticas. En torno a la IA, su enfoque de la regulación es único en su firme mediocridad: tanto da la bienvenida al progreso como firme en la afirmación de que deben existir «mecanismos de responsabilidad».
Efervescente, paciente y de voz suave, Chowdhury escucha con desarmado cuidado. Siempre ha encontrado a las personas mucho más interesantes que lo que construyen o hacen. Antes de que el escepticismo en torno a la tecnología se volviera reflexivo, Chowdhury también tenía miedo, no de la tecnología en sí, sino de las corporaciones que la desarrollaron y vendieron.
Como líder global en la firma responsable de inteligencia artificial Accenture, lideró el equipo que diseñó una herramienta de evaluación de imparcialidad que anticipó y corrigió el sesgo algorítmico. Luego comenzó Parity, una plataforma de consultoría ética de inteligencia artificial que busca unir «diferentes comunidades de experiencia». En Twitter, antes de que se convirtiera en uno de los primeros equipos disueltos bajo Elon Musk, organizó la primera recompensa por sesgo algorítmico de la compañía, invitando a programadores externos y científicos de datos a evaluar el código del sitio en busca de posibles sesgos. El ejercicio reveló una serie de problemas, incluido que el software de recorte de fotografías del sitio parecía preferir abrumadoramente rostros jóvenes, femeninos y blancos.
Esta es una estrategia conocida como red-teaming, en la que se alienta a los programadores y piratas informáticos externos a una organización a intentar reducir ciertas medidas de seguridad para impulsar una tecnología a «hacer cosas malas para identificar de qué cosas malas es capaz», dice Chowdhury. Este tipo de controles y equilibrios externos rara vez se implementan en el mundo de la tecnología debido al temor de los tecnólogos de que «la gente toque a su bebé».
Actualmente está trabajando en otro evento de equipo rojo para Def Con, una convención organizada por la organización de hackers AI Village. Esta vez, cientos de hackers se están reuniendo para probar ChatGPT, con la colaboración de su fundador OpenAI, junto con Microsoft, Google y la administración Biden. El «hackathon» está programado para durar más de 20 horas, brindándoles un conjunto de datos «totalmente sin precedentes», dice Chowdhury, quien está organizando el evento con Sven Cattell, fundador de AI Village y Austin Carson, presidente de AI responsable. SeedAI sin fines de lucro.
Desde el punto de vista de Chowdhury, es solo a través de este tipo de colectivismo que puede ocurrir una regulación adecuada, y el cumplimiento de la regulación. Además de la auditoría de terceros, también forma parte de varias juntas en Europa y los EE. UU. ayudando a dar forma a la política de IA. Ella desconfía, me dice, del instinto de regular en exceso, lo que podría llevar a los modelos a corregir en exceso y no abordar problemas arraigados. Cuando se les preguntó sobre el matrimonio homosexual, por ejemplo, ChatGPT y otras herramientas generativas de inteligencia artificial «se callaron por completo», tratando de compensar la cantidad de personas que han presionado a los modelos para que digan cosas negativas. Pero no es fácil, agrega, definir qué es tóxico y qué es odioso. “Es un viaje que nunca terminará”, me dice, sonriendo. «Pero estoy bien con eso».
Al principio, cuando empezó a trabajar en tecnología, se dio cuenta de que «los tecnólogos no siempre entienden a las personas y las personas no siempre entienden la tecnología», y trató de cerrar esa brecha. En su interpretación más amplia, me dice, su trabajo trata de comprender a los humanos a través de los datos. “En el centro de la tecnología está la idea de que la humanidad tiene fallas y que la tecnología puede salvarnos”, dice, señalando un lenguaje como “trucos corporales” que implica un tipo de optimización exclusivo de esta era particular de la tecnología. Hay un aspecto en el que desearíamos estar «divorciados de la humanidad».
Chowdhury siempre se ha sentido atraído por los humanos, su desorden, nubosidad e imprevisibilidad. Como estudiante de grado en el MIT, estudió ciencias políticas y, más tarde, después de unos meses decepcionantes en organizaciones sin fines de lucro en los que «sabía que podíamos usar modelos y datos de manera más efectiva, pero nadie lo hacía», fue a Columbia para obtener una maestría. grado en métodos cuantitativos.
data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl» wp_automatic_readability=»3.0580204778157″>saltar promoción del boletín anterior
después de la promoción del boletín
En el último mes ha estado una semana en España ayudando a llevar a cabo el lanzamiento de la Ley de Servicios Digitales, otra en San Francisco para una conferencia de ciberseguridad, otra en Boston para su beca y unos días en Nueva York para otra ronda. de la prensa Def Con. Después de un breve tiempo en Houston, donde tiene su sede, tiene próximas charlas en Viena y Pittsburgh sobre desinformación nuclear de IA y Duolingo, respectivamente.
En esencia, lo que prescribe es un dicho relativamente simple: escuchar, comunicar, colaborar. Y, sin embargo, incluso cuando Sam Altman, el fundador y director ejecutivo de OpenAI, testifica ante el Congreso que está comprometido con la prevención de los daños causados por la IA, todavía ve en juego tácticas familiares. Cuando una industria experimenta un mayor escrutinio, prohibir la regulación prohibitiva a menudo significa tomar el control de una narrativa, es decir, pedir una regulación y, al mismo tiempo, gastar millones en cabildeo para evitar la aprobación de leyes regulatorias.
El problema, dice, es la falta de responsabilidad. El análisis de riesgos interno a menudo se distorsiona dentro de una empresa porque la gestión de riesgos no suele emplear la moral. “Simplemente existe el riesgo y luego tu voluntad de correr ese riesgo”, me dice. Cuando el riesgo de fracaso o daño a la reputación se vuelve demasiado grande, se mueve a un escenario donde las reglas se tuercen en una dirección particular. En otras palabras: “Juguemos un juego en el que puedo ganar porque tengo todo el dinero”.
id=»27fbaa6c-bbc1-4a66-a3ca-2f6f346d5f3b» data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
Pero las personas, a diferencia de las máquinas, tienen prioridades y motivaciones indefinidas. “Hay muy pocos actores fundamentalmente buenos o malos en el mundo”, dice ella. “La gente simplemente opera con estructuras de incentivos”. Lo que a su vez significa que la única forma de impulsar el cambio es hacer uso de esas estructuras, alejándolas de cualquier fuente de energía. Ciertos problemas solo pueden abordarse a escala, con la cooperación y el compromiso de muchos vectores de poder diferentes, y la IA es uno de ellos.
Sin embargo, ella fácilmente da fe de que hay límites. Puntos donde el compromiso no es una opción. El surgimiento del capitalismo de vigilancia, dice, es muy preocupante para ella. Es un uso de la tecnología que, en esencia, es inequívocamente racista y, por lo tanto, no debe entretenerse. “No podemos poner lápiz labial en un cerdo”, dijo en una charla reciente sobre el futuro de la IA en la Facultad de Ciencias Sociales de la Universidad de Nueva York. “No creo que pueda existir una vigilancia ética”.
Chowdhury escribió recientemente un artículo de opinión para Wired en el que detalló su visión de una junta de gobierno global. Ya se trate del capitalismo de vigilancia, la interrupción del trabajo o la desinformación nuclear, solo se puede confiar en una junta externa de personas para gobernar la tecnología, una compuesta por personas como ella, que no está vinculada a ninguna institución y que es representativa a nivel mundial. En Twitter, algunos usuarios llamaron a su marco idealista, refiriéndose a él como «pensamiento de cielo azul» o «no viable». Es divertido, me dice, dado que estas personas están «literalmente tratando de construir máquinas sensibles».
Ella está familiarizada con la disonancia. «Tiene sentido», dice ella. Nos atraen las narrativas de héroes, la suposición de que una persona está y debería estar a cargo en un momento dado. Incluso mientras organiza el evento Def Con, me dice, a la gente le resulta difícil entender que hay un equipo de personas trabajando juntas en cada paso del camino. “Estamos recibiendo toda esta atención de los medios”, dice, “y todo el mundo dice algo como, ‘¿Quién está a cargo?’ Y luego todos nos miramos y decimos, ‘Um. ¿Todos?'»