Vivimos en una época de avances sin precedentes en inteligencia artificial generativa (IA), que son sistemas de IA que pueden generar una amplia gama de contenido, como texto o imágenes. El lanzamiento de ChatGPT, un chatbot impulsado por el modelo de lenguaje grande (LLM) GPT-3 de OpenAI, en noviembre de 2022 introdujo la IA generativa en la conciencia pública, y otras compañías como Google y Microsoft han estado igualmente ocupadas creando nuevas oportunidades para aprovechar la tecnología. Mientras tanto, estos continuos avances y aplicaciones de la IA generativa han planteado preguntas importantes sobre cómo la tecnología afectará el mercado laboral, cómo su uso de datos de capacitación implica los derechos de propiedad intelectual y qué forma debería tomar la regulación gubernamental de esta industria. La semana pasada, una audiencia en el Congreso con líderes clave de la industria sugirió una apertura a la regulación de la IA, algo que los legisladores ya han considerado para controlar algunas de las posibles consecuencias negativas de la IA generativa y la IA en general. Teniendo en cuenta estos desarrollos, los académicos del Centro para la Innovación Tecnológica (CTI) opinaron en los pasillos sobre cómo debería ser la regulación de la IA generativa.
NICOL TURNER LEE (@DrTurnerLee)
Senior Fellow y Director, Centro de Innovación Tecnológica:
La regulación de la IA generativa podría comenzar con buenas divulgaciones para el consumidor
La IA generativa se refiere a algoritmos de aprendizaje automático que pueden crear contenido nuevo como audio, código, imágenes, texto, simulaciones o incluso videos. El enfoque más reciente se ha centrado en la habilitación de chatbots, incluidos ChatGPT, Bard, Copilot y otras herramientas más sofisticadas que aprovechan los LLM para realizar una variedad de funciones, como recopilar investigaciones para asignaciones, compilar archivos de casos legales, automatizar tareas administrativas repetitivas o mejorar la búsqueda en línea. Si bien los debates sobre la regulación se centran en las posibles desventajas de la IA generativa, incluida la calidad de los conjuntos de datos, las aplicaciones poco éticas, los prejuicios raciales o de género, las implicaciones para la fuerza laboral y una mayor erosión de los procesos democráticos debido a la manipulación tecnológica por parte de los malos actores, las ventajas incluyen un dramático aumento de la eficiencia y la productividad a medida que la tecnología mejora y simplifica ciertos procesos y decisiones, como agilizar el procesamiento médico de notas médicas o ayudar a los educadores a enseñar habilidades de pensamiento crítico. Habrá mucho que debatir sobre el valor final y la consecuencia de la IA generativa para la sociedad, y si el Congreso continúa operando a un ritmo muy lento para regular las tecnologías emergentes e instituir un estándar de privacidad federal, la IA generativa será técnicamente más avanzada y estará profundamente arraigada en sociedad. Pero donde el Congreso podría obtener una victoria muy rápida en el frente regulatorio es exigir divulgaciones de los consumidores cuando el contenido generado por IA está en uso y agregar etiquetas o algún tipo de proceso de certificación de múltiples partes interesadas para fomentar una mayor transparencia y responsabilidad para los casos de uso existentes y futuros. .
Una vez más, la Unión Europea ya está a la vanguardia en esto. En su Ley de IA más reciente, la UE requiere que el contenido generado por IA se divulgue a los consumidores para evitar la infracción de derechos de autor, contenido ilegal y otras irregularidades relacionadas con la falta de comprensión de estos sistemas por parte del usuario final. A medida que más chatbots extraen, analizan y presentan contenido de manera accesible para los usuarios, los hallazgos a menudo no son atribuibles a una o varias fuentes, y a pesar de algunos permisos de uso de contenido otorgados bajo la doctrina de uso justo en los EE. UU. que protege el trabajo protegido por derechos de autor. , los consumidores a menudo se quedan en la oscuridad en torno a la generación y explicación del proceso y los resultados.
El Congreso debe priorizar la protección del consumidor en la regulación futura y trabajar para crear políticas ágiles que estén preparadas para el futuro para adaptarse a los daños emergentes a los consumidores y a la sociedad, comenzando con salvaguardas inmediatas para los usuarios antes de que se les deje, una vez más, valerse por sí mismos como sujetos de un mercado altamente digitalizado. productos y servicios. Honestamente, la UE puede estar en lo cierto con el requisito de divulgación, y EE. UU. podría contextualizar aún más su aplicación con respecto a los modelos existentes que hacen lo mismo, incluida la guía de etiquetado de la Administración de Alimentos y Medicamentos (FDA) o lo que he propuesto. en investigaciones previas: una adaptación del sistema Energy Star Rating a la IA. Brindar más transparencia y rendición de cuentas a estos sistemas debe ser fundamental para cualquier marco regulatorio, y comenzar con bocados más pequeños de una gran manzana podría ser un primer intento para los formuladores de políticas.
NIAM YARAGHI (@niamyaraghi)
Miembro sénior no residente, Centro de Innovación Tecnológica:
Revisión de la HIPAA y las reglas de bloqueo de información de salud: equilibrio entre la privacidad y la interoperabilidad en la era de la IA
Con el surgimiento de avances sofisticados de inteligencia artificial (IA), incluidos modelos de lenguaje extenso (LLM) como GPT-4 y aplicaciones impulsadas por LLM como ChatGPT, existe una necesidad apremiante de revisar las protecciones de privacidad de la atención médica. En esencia, todas las innovaciones de IA utilizan técnicas estadísticas sofisticadas para discernir patrones dentro de extensos conjuntos de datos utilizando tecnologías computacionales cada vez más poderosas pero rentables. Estos tres componentes (macrodatos, métodos estadísticos avanzados y recursos informáticos) no solo están disponibles recientemente, sino que también se están democratizando y haciendo fácilmente accesibles para todos a un ritmo sin precedentes en innovaciones tecnológicas anteriores. Esta progresión nos permite identificar patrones que antes eran imperceptibles, lo que crea oportunidades para avances importantes pero también posibles daños a los pacientes.
Las normas de privacidad, en particular la HIPAA, se establecieron para proteger la confidencialidad de los pacientes, bajo el supuesto de que los datos no identificados permanecerían anónimos. Sin embargo, dados los avances en la tecnología de IA, el panorama actual se ha vuelto más riesgoso. Ahora es más fácil que nunca integrar varios conjuntos de datos de múltiples fuentes, lo que aumenta la probabilidad de identificar con precisión a pacientes individuales.
Además del riesgo amplificado para la privacidad y la seguridad, las nuevas tecnologías de IA también han aumentado el valor de los datos de atención médica debido al potencial enriquecido para la extracción de conocimiento. En consecuencia, muchos proveedores de datos pueden volverse más reacios a compartir información médica con sus competidores, lo que complica aún más la interoperabilidad de los datos de atención médica.
Teniendo en cuenta estas mayores preocupaciones sobre la privacidad y el mayor valor de los datos de atención médica, es crucial introducir una legislación moderna para garantizar que los proveedores médicos continúen compartiendo sus datos mientras están protegidos contra las consecuencias de posibles violaciones de la privacidad que probablemente surjan del uso generalizado de la IA generativa.
MARCA MACCARTHY (@Mark_MacCarthy)
Miembro sénior no residente, Centro de Innovación Tecnológica:
Lampedusa sobre la regulación de la IA
En “El leopardo”, la famosa novela de Giuseppe Di Lampedusa sobre la reacción aristocrática siciliana a la unificación de Italia en la década de 1860, uno de sus personajes centrales dice: “Si queremos que las cosas sigan como están, las cosas tendrán que cambiar”.
Algo como esta respuesta siciliana podría estar sucediendo en la aceptación de la inevitable regulación de la IA por parte de la industria tecnológica. Sin embargo, se necesitan tres cosas si no queremos que las cosas se queden como están.
El primer paso y el más importante son los recursos suficientes para que las agencias hagan cumplir la ley actual. La presidenta de la Comisión Federal de Comercio, Lina Khan, dice correctamente que la IA no está exenta de las leyes actuales de protección al consumidor, discriminación, empleo y competencia, pero si las agencias reguladoras no pueden contratar personal técnico y presentar casos de IA en un momento de austeridad presupuestaria, la ley actual será un muerto. carta.
En segundo lugar, los formuladores de políticas no deben distraerse con fantasías de ciencia ficción de programas de inteligencia artificial que desarrollan conciencia y logran una agencia independiente sobre los humanos, incluso si estas abstracciones metafísicas cuentan con el respaldo de los líderes de la industria. No se debe gastar ni un centavo de dinero público en estas desviaciones altamente especulativas cuando los estafadores y los usuarios de la industria buscan usar la IA para violar la ley existente.
En tercer lugar, el Congreso debería considerar la adopción de nuevos requisitos de identificación, transparencia, evaluación de riesgos y protección de los derechos de autor en la línea de la Ley de IA propuesta por la Unión Europea. La solicitud de comentarios de la Administración Nacional de Telecomunicaciones e Información sobre un marco de responsabilidad de IA propuesto y la iniciativa legislativa anunciada recientemente por el senador Chuck Schumer (D-NY) para regular la IA podrían estar avanzando en esa dirección.
TOM RUEDA (@tewheels)
Miembro visitante, Centro de Innovación Tecnológica:
La IA innovadora requiere una supervisión innovadora
Ambos lados del pasillo político, así como los jefes corporativos digitales, ahora están hablando sobre la necesidad de regular la IA. Un tema común es la necesidad de una nueva agencia federal. Sin embargo, clonar simplemente el modelo utilizado para las agencias reguladoras existentes no es la respuesta. Ese modelo, desarrollado para la supervisión de una economía industrial, aprovechó la innovación de ritmo más lento para microgestionar la actividad corporativa. No es adecuado para la velocidad de la era de la IA de rueda libre.
Todas las regulaciones caminan en la cuerda floja entre la protección del interés público y la promoción de la innovación y la inversión. En la era de la IA, recorrer este camino significa aceptar que las diferentes aplicaciones de la IA presentan riesgos diferentes e identificar un plan que combine la regulación con el riesgo y evite la microgestión regulatoria que asfixia la innovación.
Tal agilidad comienza con la adopción de la fórmula por la cual las empresas digitales crean técnico estándares como la fórmula para desarrollar conductual estándares: identificar el problema; ensamblar un proceso de normalización que involucre a las empresas, la sociedad civil y la agencia; luego dar la aprobación final y la autoridad de ejecución a la agencia.
La industrialización consistía en reemplazar y/o aumentar la físico poder de los humanos. La inteligencia artificial se trata de reemplazar y/o aumentar los humanos cognitivo potestades. Confundir cómo se reguló lo primero con lo que se necesita para lo segundo sería perder la oportunidad de que la regulación sea tan innovadora como la tecnología que supervisa. Necesitamos instituciones para la era digital que aborden problemas que ya son evidentes para todos.
Google y Microsoft son donantes generales y sin restricciones de Brookings Institution. Los hallazgos, interpretaciones y conclusiones publicados en este artículo son únicamente del autor y no están influenciados por ninguna donación.