Saltar al contenido

¡No te preocupes! La IA no es tan peligrosa como se dice ahora

8 de mayo de 2023

El jueves de la semana pasada, el presidente de EE. UU., Joe Biden, y su adjunta, Kamala D. Harris, sostuvieron una reunión con los jefes de los gigantes tecnológicos, incluidos Google y Microsoft, en la Casa Blanca. Fue un buen espectáculo ver a personas de origen indio dominando la reunión con Kamala D Harris, el director ejecutivo de Google, Sundar Pichai, y el director ejecutivo de Microsoft, Satya Nadella, en el centro de atención. Sin embargo, esa es una historia diferente.

La reunión se convocó para discutir los peligros inminentes que podría plantear una nueva tecnología como la inteligencia artificial (IA).

Sam Altman, director ejecutivo de OpenAI, también asistió a la reunión. De hecho, ChatGPT de OpenAI, un chatbot de IA que tiene respuestas a todas las preguntas y el poder de escribir poemas y la fenomenal popularidad que disfruta, desencadenó el debate sobre los efectos nocivos de la IA, lo que llevó a la Casa Blanca, la sede del poder de EE. UU. , para convocar la reunión. GPT en ChatGPT significa Transformador preentrenado generativo (GPT), que es una tecnología de lenguaje natural que aprovecha el aprendizaje profundo para generar texto similar al humano.

La reunión de la Casa Blanca no es el primer intento de este tipo de evaluar los peligros de la IA. Una carta abierta, firmada conjuntamente por Elon Musk, el segundo hombre más rico del mundo y fundador de Tesla, y más de 1100 personas más, solicitó en marzo una pausa de seis meses en la investigación de IA para discutir las amenazas que plantea la nueva tecnología. La carta, que también citaba los peligros potenciales de la información errónea de los sistemas de inteligencia artificial, desató una controversia ya que algunos de los firmantes dijeron que no la respaldaban. Irónicamente, Musk es cofundador de OpenAI.

Un mes antes de que se publicara la carta, Vint Cerf, ampliamente considerado como el padre de Internet, también advirtió contra invertir en IA conversacional en la que se basa ChatGPT. Google también desarrolló un rival en Bard ya que su motor de búsqueda, su pan y mantequilla, está en peligro después de la revolución ChatGPT. Según él, los chatbots de IA también plantean problemas éticos.

Recomendado:  La plataforma de inteligencia artificial detecta los fallos de la red eléctrica y los peligros de los incendios forestales mejor y más rápido que los humanos.

Posteriormente, Geoffrey Hinton, considerado el padre de la IA, también advirtió sobre los riesgos de los chatbots de IA. Para recalcar su punto, renunció a Google para hablar abiertamente sobre la IA. Hinton, quien desempeñó un papel fundamental en el desarrollo de redes neuronales que ahora se utilizan ampliamente en los sistemas de IA, advirtió que los chatbots de IA podrían volverse más inteligentes que los humanos y podrían ser explotados por personajes nefastos.

Estos desarrollos recientes en la IA conversacional indican preocupaciones y temores crecientes sobre la inteligencia artificial per se.

Pero entonces, ¿la IA representa alguna amenaza existencial para la humanidad? Es muy poco probable. Tales temores surgen cada vez que surge una tecnología pionera o un nuevo invento revolucionario ve la luz del día. Uno tiene que retroceder en el tiempo y recordar las reacciones atónitas cuando la energía nuclear llegó a existir para entender la psique del público. Fue lo mismo cuando nació el bebé probeta y, más recientemente, cuando llegó la revolución de Internet. Con el tiempo, tomó al mundo por asalto.

Sin embargo, uno no necesita nuevas tecnologías para poner en peligro a la humanidad. El mundo ya alberga armas de destrucción masiva, incluidas armas nucleares que pueden destruir grandes ciudades en unos pocos segundos.

De hecho, uno puede usar cualquier cosa para causar daño a alguien. Incluso una piedra es suficiente para matar a alguien. Pero una piedra tiene más valor de utilidad cuando se usa para construir edificios y estructuras. Los seres humanos han estado usando cuchillos, también un arma asesina, para mejores propósitos durante miles de años. Cuando podrían poner un cuchillo y la energía nuclear (que se puede usar para hacer bombas nucleares) para un mejor uso, ¿no se puede hacer lo mismo con la IA? Lo harán y deberían hacerlo. Los seres humanos tienen la habilidad y la capacidad de utilizar la inteligencia artificial para fines más constructivos.

Recomendado:  La gran idea: ¿deberíamos usar datos para tomar las grandes decisiones de la vida? | Libros

Sin embargo, existe el argumento de que la IA eventualmente se volverá más poderosa que el cerebro humano. Por supuesto, eso será muy probable en algunos aspectos. De hecho, la calculadora simple que usamos es más poderosa que el cerebro humano. ¿Cuántos de nosotros podemos dar una respuesta en segundos si nos preguntan el resultado de 9999 X 9999? Una calculadora hace el trabajo en unos pocos segundos, pero una persona necesita un bolígrafo, papel y varios minutos de tiempo para calcular (¡si sabe cómo calcular!) para obtener la misma respuesta. A juzgar por esto, una calculadora es mucho más poderosa que el cerebro humano. Pero, ¿una calculadora representa algún peligro para los humanos? La respuesta es un no absoluto.

Los temores de que los sistemas de inteligencia artificial se utilicen para desinformación a gran escala también son infundados. Las noticias falsas y la información poco confiable ya dominan las redes sociales e Internet. No es nada nuevo.

Algunos también expresaron temores de que la IA quitaría puestos de trabajo. Tales temores surgen con cada nueva tecnología. Por el contrario, cuando se ve pragmáticamente, queda claro que cada nueva tecnología ha traído consigo más y más vías de trabajo. El mejor ejemplo en esta categoría es la revolución del software. Lo mismo ocurrirá con la IA y todas las demás tecnologías que surgirán en el futuro.

Además, las oportunidades potenciales que probablemente ofrecerá la IA son enormes y diversas, especialmente en áreas de aprendizaje automático, aprendizaje profundo y análisis de Big Data.

Gartner ya estimó que la IA generativa crearía el 10 por ciento de todos los datos para 2025. Actualmente, esto es menos del uno por ciento. En ese momento, la IA representará el 20 por ciento de todos los datos de prueba orientados al consumidor. Además, se espera que más del 30 por ciento de los fabricantes aprovechen la IA generativa para producir mejores productos en los próximos años.

Recomendado:  TechScape: Enter the multiverse: el juego de sala de chat hecho con arte de IA | Inteligencia artificial (IA)

Si bien los empresarios son muy conscientes de cómo aprovechar las tecnologías nuevas y emergentes para obtener ganancias rentables, los gobiernos de todo el mundo están bien equipados para manejar situaciones de manera efectiva en caso de que se produzcan efectos secundarios cuando se utilizan dichas tecnologías.

Además, los seres humanos tienen una gran ventaja, una que ninguna tecnología puede poseer. Eso es sentido común. Es el sentido común el que da origen a las nuevas tecnologías, que obviamente vienen con elementos buenos y malos. La gente en la calle y en los gobiernos sabe cómo dar jaque mate a los elementos malos mientras hace uso de los elementos buenos. Por lo tanto, no hay necesidad de preocuparse por la inteligencia artificial o cualquier nueva tecnología que surja en el futuro. No creo que la IA sea tan peligrosa como algunos pintan que es.

Por supuesto, el consejo más sabio es tomar precauciones al tener una idea de cualquier nueva tecnología que se introduzca. No hay duda de que con la entrada en acción de la administración de EE. UU., otros gobiernos seguirán su ejemplo y eventualmente surgirán controles y equilibrios para dar un mejor uso a la inteligencia artificial.

Bueno, la IA llegó para quedarse y será por el bien general de la sociedad. ¡Recuerda lo que te digo!