Saltar al contenido

Una cosa en la que nos estamos equivocando sobre la IA

18 de marzo de 2023

A medida que la inteligencia artificial ha capturado la imaginación con imágenes generadas instantáneamente de jirafas surfeando o poemas de tazones de ramen deprimidos, la tecnología de IA parece estar apareciendo en todas partes, volviéndose más inteligente por minuto.

Puede encontrar eso fascinante o aterrador, o tal vez un poco de ambos. Sin duda, es disruptivo: solo mire los titulares siniestros de los últimos meses como A medida que avanza la IA, ¿Desaparecerán los trabajadores humanos? y Por qué una conversación con el chatbot de Bing me dejó profundamente inquieto.

Por lo tanto, no sorprende que la IA haya sido un tema candente en la conferencia SXSW de este año, que se está llevando a cabo ahora mismo en Austin, Texas. La conferencia está sintonizada con la vanguardia y reúne a líderes de opinión, ejecutivos y artistas de los sectores empresarial, tecnológico y de entretenimiento. La asistencia aún no parece haber vuelto a los niveles previos a la pandemia, con salas de reuniones más que medio vacías a veces, pero aún ha tenido una combinación decente de paneles y charlas sobre todo, desde la economía del metaverso hasta la música en el anime.

Para aquellos que trabajan en IA que se presentaron en SXSW, hubo inquietud sobre el ritmo al que prolifera la tecnología. Y existía la sensación de que el público aún no se había dado cuenta de la creciente prominencia de la IA y las cosas que puede hacer, en la tecnología que tocan todos los días. Es demasiado fácil caer en tropos de ciencia ficción y proyectar personalidad cuando no está allí. El sentimiento era claro: Sea prudente.

«Antes de decirle al mundo que su IA es sensible, pregúntele a un amigo», dijo Jason Carmel, líder global de datos creativos que se especializa en IA en Wunderman Thompson, una firma de publicidad con sede en Nueva York. Hablando durante una presentación sobre la sensibilidad y la IA el martes, Carmel argumentó que el sensacionalismo de la IA (vea los titulares anteriores) creará malentendidos y, en última instancia, conducirá al miedo y la pérdida de confianza.

Esta nueva ola de preocupaciones sobre la IA comenzó con el lanzamiento de ChatGPT de OpenAI, un chatbot basado en un potente motor de inteligencia artificial que promete revolucionar la forma en que obtenemos información de Internet. ChatGPT demostró ser increíblemente popular desde el principio: en enero, llegó a más de 100 millones de usuarios activos, lo que la convierte en la plataforma web de más rápido crecimiento de la historia.

Recomendado:  La ley de Goodhart, la diversidad y una serie de problemas aparentemente no relacionados con los juguetes - El blog de investigación de inteligencia artificial de Berkeley

Desde entonces, ha habido una avalancha de grandes empresas tecnológicas que buscan capitalizar ese avance. Microsoft anunció una asociación ampliada multimillonaria con OpenAI para llevar la tecnología ChatGPT a su búsqueda de Bing. Google, creador del motor de búsqueda más popular del mundo, respondió revelando su Rival de ChatGPT, llamado Bardy recién esta semana dio a conocer nuevas capacidades de IA para aplicaciones como Gmail y Google Docs. Y la suite de software para el trabajo de Microsoft tampoco se quedará atrás, ya que la compañía dijo que traerá una «Copiloto» impulsado por IA para Word, Excel, PowerPoint y más.

También se une a la fiebre de la IA: el motor de búsqueda Pato Pato a ganaraplicación de redes sociales Snapchatasistente de redacción gramaticalmente y las aplicaciones de mensajería de Meta, WhatsApp y Messenger.

Lo que hace que ChatGPT y herramientas similares sean accesibles para la persona promedio es su estilo de conversación y su capacidad para escribir todo, desde itinerarios de viaje hasta correos electrónicos de trabajo y ensayos universitarios de una manera convincentemente humana.

Esa habilidad puede ayudar a las personas a acelerar la investigación y el trabajo de manera espectacular, y las herramientas serán «más impactantes en órdenes de magnitud que el teléfono inteligente», dijo Rahul Roy-Chowdhury, jefe global de producto de Grammarly, durante un panel sobre el futuro de la IA el martes. .

Pero a los que participan en los paneles de IA en SXSW les preocupa que los talentos impulsados ​​por las máquinas lleven a las personas a asignar una individualidad e inteligencia similares a las humanas a una tecnología que simplemente es buena para presentar la información existente de una manera novedosa. Entonces, las personas pueden ser víctimas de sesgos en esa información y es posible que no entiendan cuándo está incompleta. La tecnología a veces puede presentar con confianza información incorrecta como verdadera, lo que se conoce como alucinaciones. Y existe la preocupación de que las empresas se apresuren a lanzar estos servicios infundidos con IA sin incorporar suficientes garantías éticas. Según los informes, Microsoft despidió a su equipo de ética y sociedad de IA cuando la compañía eliminó 10,000 puestos en enero, aunque dice que está comprometida con el desarrollo de productos de IA de manera segura y responsable.

Recomendado:  La inteligencia artificial necesita inteligencia de personas

Ya hemos visto lo que sucede cuando las personas asignan prematuramente conciencia dentro de las máquinas. El año pasado, Blake Lemoine, un ingeniero de software de Google, afirmó que un chatbot que se estaba probando dentro de la empresa había logrado sensibilidad. Su proclamación fue recibida rápidamente con titulares que atraparon la imaginación y burlas de los expertos en inteligencia artificial, describiéndola como «tonterías».

«Los patrones pueden ser geniales, pero el lenguaje que pronuncian estos sistemas en realidad no significa nada en absoluto», dijo el científico y autor de inteligencia artificial Gary Marcus en una publicación de Substack el año pasado. «Y seguro como el infierno que no significa que estos sistemas sean conscientes».

Google despidió a Lemoine un mes después por compartir información interna.

en que nos estamos equivocando

Para Carmel, la gente ha estado combinando sensibilidad con inteligencia. La inteligencia es poder recopilar y aplicar información, mientras que la sensibilidad requiere la capacidad de sentir y percibir cosas. Y la conciencia lo lleva un paso más allá, teniendo un nivel de autoconciencia. Carmel siente que, a menudo, las personas describen a la IA como sensible cuando en realidad solo es buena para regurgitar información.

«Lo que yo buscaría cambiar es [people’s tendency toward] humanizar la IA de una manera que agregue emoción donde no debería haberla”, dijo Carmel. Señaló a los periodistas que usan palabras como “lobotomizado” para describir los cambios en el código de una IA. “Le da a la gente una idea equivocada de lo que realmente está sucediendo. Y también hace que el trabajo del desarrollador sea mucho más difícil».

Carmel no dice que debamos dejar de usar metáforas e hipérboles para describir temas complejos relacionados con la IA, sino que las figuras retóricas pueden agregar carga emocional a una herramienta útil.

Para ayudar a combatir los conceptos erróneos, el equipo de Wunderman Thompson creó Sentientometer, un sitio web que es esencialmente una serie de listas de verificación para desglosar si una IA es sensible. ChatGPT ni siquiera se acercó.

Recomendado:  Auditoría de IA y sistemas autónomos; Construyendo una infraestructura de confianza | blog @ CACM

Cuando se trata de palabrería, Roy-Chowdhury de Grammarly dice que el mundo «artificial» en IA malinterpreta su objetivo principal. Preferiría que lo llamemos «inteligencia aumentada», ya que se basa en nuestra capacidad para recopilar y percibir información. El término «artificial» atrae a las personas a conversaciones de ciencia ficción sobre la conciencia y la sensibilidad, cuando en realidad se trata más de ayudar a las personas a realizar tareas específicas.

El equipo de Wunderman Thompson quiere que los investigadores integren la ética en la IA desde el principio. Esto incluye codificar la IA para que no haga «cosas malas», para ser justo, para comprender los impactos potenciales y para ser transparente. Y, para decirlo sin rodeos, los programadores deberían decirle a estas herramientas que se aseguren de que «no lastimen a los humanos». Es decir, dijo Carmel, las tecnologías de IA deben enseñarse sobre los derechos humanos para que, a medida que la IA evolucione, lleve consigo estos conceptos.

Aunque los presentadores de SXSW en general se mostraron optimistas sobre el futuro de la IA, dijeron que no hay nada mejor que un toque humano.

Esa es la esencia de la buena escritura no generada por IA.

«Personalmente, saber que este es un ser humano que puso trabajo en la historia, tiene mucho valor para mí», dijo Ilinca Barsan, directora de ciencia de datos en Wunderman Thompson, quien copresentó la discusión con Carmel. Para Barsan, saber que algo fue generado por IA elimina cierto encanto, y dijo que nunca querría leer una novela escrita por IA.

«Esa es la magia del arte, la música y la literatura», dijo Barsan. «Es una experiencia humana. Y obtienes la visión específica del mundo de una persona», mientras que la IA simplemente nos da «todo mezclado».

Nota de los editores: CNET está utilizando un motor de inteligencia artificial para crear algunos explicadores de finanzas personales que nuestros editores editan y verifican. Para más, ver esta publicación.

Corrección, 8:45 am: El apellido de Ilinca Barsan estaba mal escrito en la versión original de esta historia.