Saltar al contenido

Por qué la IA debe ser regulada : Goa News

11 de junio de 2023

El Expreso Indio | hace 17 horas | 10-06-2023 | 11:45

Sam Altman, CEO de OpenAI (la empresa que desarrolló ChatGPT), estuvo en India. Mientras estuvo aquí, tuvo reuniones con líderes políticos y empresariales sobre una variedad de temas, incluida la necesidad de regular la IA. El 16 de mayo, Altman había testificado ante el Senado de los Estados Unidos. Instó a que se formara una nueva agencia para otorgar licencias a las empresas de IA. Además, Altman identificó tres áreas específicas de preocupación. Primero, que la inteligencia artificial (IA) podría salir mal. ChatGPT, por ejemplo, a menudo da respuestas inexactas o incorrectas a las consultas. En segundo lugar, que la IA reemplazará algunos trabajos que provocarán despidos en ciertos campos y que «debe descubrirse cómo mitigar eso». Finalmente, también testificó que la IA podría usarse para difundir información errónea específica, y señaló que Estados Unidos tendrá sus elecciones presidenciales en 2024. Debo agregar aquí: India también acudirá a las urnas el próximo año. ¿Qué es la IA? Como escribí en una columna anterior, en 1956, John McCarthy explicó: «La inteligencia artificial permite que una máquina se comporte de tal manera que se la llamaría inteligente si un ser humano se comportara de esa manera». Siri, de la que dependen los consumidores de Apple, es un ejemplo de inteligencia artificial. Es un razonamiento similar al humano mostrado por los sistemas informáticos. Hoy en día, las aplicaciones de la IA incluyen el procesamiento del lenguaje natural, el reconocimiento de voz, la visión artificial y los sistemas expertos. Los ejemplos incluyen la fabricación de robots, automóviles autónomos, bots de chat de marketing, etc. Las áreas de preocupación que destaca Altman son importantes para todos los países. Unas semanas después de que Altman testificara ante el Senado de los Estados Unidos, me llamó la atención una declaración. Fue firmado por más de 350 personas, incluido Altman; Mira Murati, directora de tecnología de OpenAI; Kevin Scott, director de tecnología de Microsoft; altos ejecutivos de Google AI; líderes de Skype y Quora e incluso un ex Alto Representante de las Naciones Unidas para Asuntos de Desarme. La declaración que todos firmaron señala que «mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear». Musk firmó una carta en marzo de 2023 “para detener temporalmente los sistemas de entrenamiento más potentes que GPT-4”, la tecnología lanzada ese mes por una startup respaldada por Microsoft. Esto incluye la próxima generación de la tecnología GPT-5 de OpenAI. La necesidad de regulación se verá atenuada por la rentabilidad y eficiencia de la IA. ¿Qué tan rentable, preguntas? Nvidia, una empresa de semiconductores descrita por The Wall Street Journal como «en el corazón de la revolución de la inteligencia artificial» se ha convertido recientemente en una empresa de un billón de dólares. Esto lo coloca en la compañía de élite de Apple, Microsoft, Amazon y Alphabet (la empresa matriz de Google), todas compañías de billones de dólares. Esto en un momento en que el mundo de la tecnología en general ha estado perdiendo empleados y tiene una perspectiva sombría. Nvidia proporciona los chips y el software para las demandas informáticas intensivas de la IA generativa. ChatGPT es un ejemplo de IA generativa. Como explica Techopedia.com, la IA generativa puede producir una variedad de contenido que incluye texto, imágenes, audio y datos sintéticos. El uso de la IA se ha multiplicado en los últimos años. Ahora se usa para guiar armas, conducir automóviles, realizar procedimientos médicos e incluso escribir memorandos legales (a menudo de manera inexacta). En febrero, EE. UU. lanzó una iniciativa para promover la cooperación internacional sobre el uso responsable de la IA y las armas autónomas por parte de los militares. Como informa The Independent, esto se hizo reconociendo que la IA tiene el potencial de cambiar la forma en que se libra la guerra. Por ejemplo, la guerra en Ucrania ha acelerado el despliegue de drones que “se utilizarán para identificar, seleccionar y atacar objetivos sin la ayuda de humanos” con tecnología de IA. Ucrania ya tiene drones de ataque semiautónomos. El ministro de Transformación Digital de Ucrania, Mykhailo Fedorov, observó que los drones asesinos completamente autónomos “son el próximo paso lógico e inevitable” en el desarrollo de armas. es una preocupación importante. En la actualidad, los drones aún requieren que un ser humano elija objetivos a través de una transmisión de video en vivo mientras la IA completa el trabajo. Pero eso pronto puede cambiar. El dron puede elegir su propio objetivo. El equilibrio entre las ganancias tecnológicas y el efecto nocivo de la IA es un debate político que pondrá a prueba la gobernanza en todo el mundo. La IA generativa es el peligro real ya que su contenido puede ser engañoso. Las fascinantes conversaciones del Senado del 16 de mayo (disponibles en YouTube) entre la industria tecnológica y los senadores son educativas. Como señaló un senador, qué definir y cómo definir la tecnología es un dilema político importante. El senador Jon Ossoff de Georgia presionó a Altman sobre sus pensamientos sobre este enigma de definición. Altman sugiere útilmente varios umbrales regulatorios basados ​​en «cuánta computación entra en un modelo». Un modelo que pueda “persuadir, manipular e influir en las creencias de una persona será un umbral”. Un modelo que pueda “crear nuevos agentes biológicos” es otro umbral. Sugiere que cada umbral de capacidad debe tener un nivel o regulación diferente y que los modelos de baja capacidad deben mantenerse como de uso abierto. La regulación tiene implicaciones para los derechos constitucionales como la privacidad, la igualdad, la libertad y el sustento. Conduce a ese debate constitucional muy significativo entre la intrusión del Estado y los reclamos de privacidad del individuo. Después de todo, la IA solo es posible porque se recopilan nuestros datos. En India, si bien el estado tiene derechos unilaterales para recopilar y usar nuestros datos, también se ha otorgado la capacidad de regular a las partes privadas. Las partes privadas y los ciudadanos individuales podrían usar algunas protecciones y derechos. Por ahora, los usos y peligros de la IA captarán la imaginación de los responsables políticos. Para hacer regulaciones reflexivas y sostenibles constitucionalmente, deben educarse a sí mismos sobre la tecnología. El autor es un abogado principal en la Corte Suprema.

Imagen de seguimiento de Google