Saltar al contenido

¿Podría Chat GPT revolucionar el periodismo?

18 de mayo de 2023

Aquí viene el chat GPT – Desde la agricultura hasta la atención médica, los avances en inteligencia artificial (IA) han remodelado varias industrias en los últimos años. El periodismo no es una excepción. Chat GPT (Transformador preentrenado generativo) es un excelente ejemplo de tecnología de inteligencia artificial que tiene el potencial de transformar la forma en que se difunden las noticias y la información.

Como escritor, he sido escéptico acerca de la tecnología más nueva y he sido una resistencia incondicional. Sin embargo, como estaba escribiendo sobre el tema, pensé que al menos debería intentarlo.

La divulgación completa: Las oraciones introductorias de este artículo se escribieron con la ayuda de Chat GPT. Para bien o para mal, el resto del artículo es todo mío, lo prometo.

Es fácil ver por qué los estudiantes, las empresas y cualquier persona que necesite usar palabras sucumbe a la facilidad y conveniencia de la última tecnología de IA.

Esta no es la primera vez que la tecnología reemplaza los esfuerzos humanos, particularmente en actividades académicas. Microfiche pudo recopilar mucha más información que montones de revistas y periódicos viejos. Internet reemplazó a los catálogos de fichas, las enciclopedias y los periódicos. Sitios web como BibMe y Bibcitation, mis favoritos personales, generan citas automáticamente, lo que hace que las bibliografías y las notas al pie sean mucho más fáciles de producir.

Pero esta es la primera vez en la historia en que la tecnología va más allá de simplemente compilar, clasificar y clasificar datos o aumentar la velocidad con la que puede hacerlo. La IA está reemplazando rápidamente la necesidad de asimilar el conocimiento y sacar conclusiones con esa información. Para ello se requiere una habilidad conocida como pensamiento crítico.

Hay una línea muy fina entre las tareas mundanas y el trabajo que requiere una conciencia, particularmente en un campo como el periodismo, donde cada vez más, las consideraciones éticas deben tenerse en cuenta.

Recomendado:  Inteligencia artificial - Analista de soluciones de ingeniería de procesos - AVP

No puedo imaginar que este tipo de IA no nos haga más tontos. No soy neurocientífico, pero sé que aprender a dominar las habilidades más básicas, como leer y escribir, fortalece las redes neuronales.

Hemos estado en esta pendiente resbaladiza del deterioro cognitivo desde hace un tiempo. Los mapas de Internet, si bien son extremadamente convenientes, han eliminado la necesidad de recordar direcciones o requieren que el conductor se mantenga alerta. Los coches autónomos ya están aquí. Recordar la receta favorita de tu abuela es casi un arte perdido.

Si bien no estoy abogando por una prohibición de la tecnología, la velocidad con la que avanzamos es preocupante.

Ahí está el desafío. No creo que nadie quiera volver a la edad de piedra de los mapas doblados o cocinar al fuego, aunque ambas opciones suenan bastante bien en este momento, pero ¿qué tan lejos es demasiado?

Todos parecen estar de acuerdo en que se deben establecer límites para la IA. Pero, ¿dónde están esos límites, cómo los dibujamos y quién los establece?

Audiencia del Senado sobre IA

Estas son las preguntas que la Subcomisión de Privacidad, Tecnología y Derecho del Poder Judicial del Senado trató de responder esta semana.

El Senador Richard Blumenthal, D-Conn., abrió la sesión presentando los desafíos de la IA. “Con demasiada frecuencia hemos visto lo que sucede cuando la tecnología supera la regulación. La explotación desenfrenada de los datos personales, la proliferación de la desinformación y la profundización de las desigualdades sociales. Este no es el futuro que queremos”.

Aunque el senador realmente no dijo esas cosas. Sus comentarios de apertura fueron cortesía del audio realizado por un software de clonación de voz, con palabras escritas por ChatGPT.

Recomendado:  La tecnología blockchain podría proporcionar comunicaciones seguras para equipos de robots

El CEO de Open AI, el creador de Chat GPT, Sam Altman, ofreció testimonio en la audiencia, irónicamente, abogando por la regulación.

“Creo que si esta tecnología sale mal, puede salir bastante mal. Y queremos expresarnos al respecto”, dijo. “Queremos trabajar con el gobierno para evitar que eso suceda”, afirmó Altman.

Presionar para que se regule la misma tecnología que usted creó puede parecer contradictorio, pero Altman está haciendo precisamente eso.

Él no está solo. Elon Musk también ha advertido sobre los peligros de su propia mente maestra. El «padrino de la IA», el Dr. Geoffrey Hinton, recientemente dejó Google para advertir sobre los peligros de la IA y pedir algún tipo de regulación global. Hace años, Stephen Hawking afirmó que la IA podría ser lo peor que le haya pasado a la humanidad.

Altman presentó un plan de tres puntos para la supervisión del gobierno: 1. Crear una agencia gubernamental encargada de otorgar licencias y hacer cumplir la regulación sobre grandes modelos de IA 2. Diseñar un conjunto de estándares de seguridad para los modelos de IA, incluidas las evaluaciones de sus capacidades peligrosas y 3. Requerir auditorías, por parte de expertos independientes, del desempeño de los modelos en varias métricas.

dilema del filosofo

El debate actual en torno a la IA presenta más preocupaciones que solo el reemplazo de puestos de trabajo y las alternativas económicas. Golpea el corazón de una pregunta existencial fundamental: ¿qué significa ser humano?

¿Es la vida nada más que facilidad, comodidad y máxima eficiencia? Si bien nuestra cultura de comida rápida valora tales mejoras, estas no son virtudes. Chat GPT no enseñará paciencia, bondad, amabilidad o empatía. Y aunque estas cualidades no parecen particularmente desenfrenadas en el campo del periodismo, sigo creyendo que mientras los humanos escriban los informes, hay esperanza.

Recomendado:  La tecnología 4.0 transforma el procesamiento avícola

Aunque todo el mundo clama que los medios de comunicación informen «solo los hechos» sin opinar, qué mundo tan mundano y triste sería sin humanos para contar historias.

Chat GPT podría haberle contado la historia de la IA, cómo beneficia al periodismo, sus desafíos y qué regulaciones se están considerando. Pero no podría haber ofrecido perspectiva, perspicacia y, lo ame o lo odie, mi expresión única del tema. ¿Es esto necesario para todos los artículos, especialmente para las noticias duras? No. Pero cuanto más permitimos que la IA impregne nuestras vidas, más nos parecemos a ella. Los humanos habrán creado precisamente lo que los destruye.

AI puede ser uno de los únicos problemas bipartidistas en la actualidad. No importa de qué lado del pasillo nos sentemos, la mayoría parece estar de acuerdo en que no queremos un mundo con solo un pasillo y sin lados. Un mundo sin contraste, desafío e individualidad es un mundo sin humanidad. Y eso no es un mundo en absoluto.

Jennifer Galardi es la editora de política y cultura de 19FortyFive.com. Tiene una Maestría en Políticas Públicas de la Universidad de Pepperdine y produce y presenta el podcast Connection con conversaciones que abordan la salud, la cultura, la política y las políticas. En una vida anterior, escribió para publicaciones en el espacio de salud, fitness y nutrición. Además, sus artículos han sido publicados en Epoch Times y Pepperdine Policy Review. Puedes seguirla en Instagram y Twitter.