Rick Claypool es un analista de políticas sensato y un desmenuzador de números para Public Citizen, conocido por informar sobre la disminución en la aplicación de los delitos corporativos con cada presidencia sucesiva. (Biden menos que Trump). Su último informe (con Cheyenne Hunt) lo muestra claramente en un estado inusualmente agitado. su titulo es
“¡Lo siento por adelantado!” La prisa rápida por implementar la IA generativa pone en riesgo una amplia gama de daños automatizados.
Claypool no se está involucrando en hipérboles o hipotéticas horribles sobre los Chatbots que controlan a la humanidad. Está extrapolando lo que ya está comenzando a suceder en casi todos los sectores de nuestra sociedad.
Lo desafío a leer su informe sin experimentar disonancia cognitiva y vomitar las manos pensando que el genio ya se quedó sin un millón de botellas. Claypool lo lleva a través de «… daños del mundo real [that] la prisa por lanzar y monetizar estas herramientas puede causar y, en muchos casos, ya está causando”.
“Hasta que se establezcan salvaguardas gubernamentales significativas para proteger al público de los daños de la IA generativa, necesitamos una pausa”.
El análisis de Claypool lo lleva a través de cinco amplias áreas de preocupación, excluyendo las horribles armas autónomas en las que el Departamento de Defensa (también conocido como Departamento de Ofensa) está profundamente involucrado en el desarrollo. Los diversos títulos de las secciones de su informe presagian los abusos que se avecinan: «Daño a la democracia», «Preocupaciones de los consumidores» (estafas y grandes vigilancias de la privacidad), «Empeoramiento de la desigualdad», «Socavando los derechos de los trabajadores» (y empleos) y «Preocupaciones ambientales». ” (dañando el medio ambiente a través de su huella de carbono).
Antes de ser específico, Claypool anticipa su conclusión: «Hasta que se establezcan salvaguardias gubernamentales significativas para proteger al público de los daños de la IA generativa, necesitamos una pausa». Cómo, no dice. Debido a que con tantos generadores cada vez mayores de estos Chatbots en todo el mundo, esta avalancha de Frankenstein Chatbots puede presentar el mismo problema que el Decano de la Facultad de Derecho de Harvard, Roscoe Pound, describió con respecto a la prohibición de las bebidas alcohólicas en la década de 1920 como algo más allá de «la límites de la acción judicial efectiva”.
Claypool cita a Sam Altman, director ejecutivo de OpenAI, quien lanzó el impactante producto ChatGPT AI en noviembre pasado y dijo después: «Creo que potencialmente no estamos tan lejos de los potencialmente aterradores». Altman ha estado ocupado en el Capitolio hipnotizando a los legisladores al decir que “se necesita regulación”, con lo que se refiere a la industria misma escribiendo las reglas y normas para el Congreso.
Haciendo uso de su autoridad existente, la Comisión Federal de Comercio, en palabras del autor «… ya ha advertido que las herramientas de IA generativa son lo suficientemente poderosas como para crear contenido sintético (noticias que suenan plausibles, estudios académicos que parecen autorizados, imágenes falsas y videos falsos profundos) y que este contenido sintético se está volviendo difícil de distinguir del contenido auténtico”. Agrega que «… estas herramientas son fáciles de usar para casi cualquier persona». BIG TECH se está adelantando a cualquier marco legal para la IA en la búsqueda de grandes ganancias, al tiempo que impulsa la autorregulación en lugar de las restricciones impuestas por el estado de derecho.
Los desastres pronosticados no tienen fin, tanto por parte de la gente dentro de la industria como de sus críticos externos. Destrucción de medios de subsistencia; efectos nocivos para la salud derivados de la promoción de remedios de charlatanería; fraude financiero; falsedades políticas y electorales; despojo de los comunes de información; subversión de la internet abierta; falsificar su imagen facial, voz, palabras y comportamiento; engañarte a ti y a otros con mentiras todos los días. El potencial de engaño de la IA hará Fox NewsLos engaños parecen comparativamente moderados.
Con el Congreso y la Casa Blanca emitiendo exhortaciones inaplicables a la industria para que sea amable, segura y responsable, los críticos esperan la aprobación de la primera etapa de la Ley de IA de la Unión Europea para proteger a su gente de los daños más evidentes a sus derechos comunes e individuales. e intereses El enfoque de la Ley es en qué
usos de la IA deben frenarse, incluido el impacto adverso en las elecciones. Exige el etiquetado del contenido generado por IA. El 16 de mayo de 2023, Public Citizen solicitó a la Comisión Federal de Elecciones que emitiera una regla que impidiera el uso de IA para engañar a los votantes.
Todos los cuerpos legislativos tendrán que enfrentar las barreras del secreto: las afirmaciones de los gobiernos sobre el desarrollo de armas y vigilancia y los «secretos comerciales» ya afirmados por las corporaciones. En los EE. UU., también habrá defensas de la Primera Enmienda para la libertad de expresión por parte de estas entidades artificiales llamadas corporaciones. Sus abogados corporativos tendrán un lucrativo día de campo inventando retrasos y obstrucciones.
Nuestra nación y el mundo apenas están lo suficientemente organizados para controlar a través de tratados el uso de armas nucleares, a través de tratados, mal preparados para pandemias devastadoras, y prácticamente en ninguna parte para prever y prevenir las mega amenazas de la IA generativa “para la sociedad y la humanidad”. Esas fueron las palabras de una carta de advertencia abierta que pedía una pausa de seis meses, firmada por los principales directores ejecutivos (como Elon Musk), tecnólogos y académicos.
Con pocas excepciones, un Congreso perezoso, que se prepara para un largo receso festivo el 4 de julio seguido de un receso legislativo durante todo agosto, ignora sus poderes y deberes especiales para con el pueblo estadounidense. Veamos cierta urgencia en el Congreso para poner algo de especificidad y fuerza de aplicación detrás y más allá del «Plan para una Declaración de Derechos de IA» no vinculante de Biden publicado por la Oficina de Política Científica y Tecnológica de la Casa Blanca en octubre de 2022.
El representante Ted Lieu (D-Calif.), miembro del Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes, está impulsando la creación de una nueva agencia federal para regular las tecnologías de IA.
Por ahora, tengo dos recomendaciones. Exija a sus senadores y representantes que se unan a usted en las reuniones municipales locales durante el receso de agosto del Congreso, donde usted y sus legisladores pueden escucharse unos a otros y abordar los problemas apremiantes. Dígales que este gigante robótico desbocado está despojando a los humanos de sus propias identidades mentales, autonomía y juicios autosuficientes.
Todo el mundo está en riesgo. Incluso Microsoft y Google tienen poca idea del torbellino que están desatando, impulsados por ganancias miopes, no por sabiduría, principios cívicos y responsabilidades ante las instituciones públicas y las personas mismas. Haga que sus expertos locales formulen el enfoque de las agendas de las reuniones de la ciudad, respaldados por su sentido de urgencia.
Luego exija que sus miembros del Congreso terminen su rutina de trabajo de tres días a la semana y realicen audiencias rigurosas en DC y en todo el país con una fecha límite para aprobar la legislación. Dígales que ellos también están en riesgo por las falsificaciones, las calumnias y las imitaciones de los Chatbots.
Por último, actualice y haga más preciso su escepticismo hacia los Chatbots que ya están ingresando y afectando sus vidas y localidades. Esté alerta y desarrolle un círculo cada vez más grande de familiares, amigos, vecinos y compañeros de trabajo de confianza.
Los Chatbots corporativos están llegando rápidamente sin ningún marco legal o ético para restringirlos y disciplinarlos para que no subviertan sus libertades y el verdadero sentido de la realidad.