¿Qué obtienes cuando reúnes en la misma sala de conferencias a dos de las 100 personas más influyentes en inteligencia artificial según la revista Time? Si los dos influencers son escritores de ciencia ficción Ted Chiang y Emily Benderprofesor de lingüística en la Universidad de Washington, hay mucho escepticismo sobre el futuro de las herramientas de inteligencia artificial generativa como ChatGPT.
“No lo uso, no lo usaré y no quiero leer lo que otras personas hacen al usarlo”, dijo Bender el viernes por la noche en una reunión. Foro del Ayuntamiento de Seattle presentado por Clarion Oeste
Chiang, quien escribe ensayos sobre IA y trabaja máquinas inteligentes en alguno de su ficción cuentosdijo que se está volviendo demasiado fácil pensar que los agentes de IA están pensando.
“Estoy seguro de que no están pensando”, dijo. “No entienden nada, pero necesitamos otra forma de darle sentido a lo que están haciendo”.
¿Cuál es el daño? Uno de los principales temores de Chiang es que los humanos pensantes y que respiran que manejan la IA la utilicen como medio para controlar a otros humanos. en un entrevista reciente con Vanity Faircomparó nuestra economía cada vez más impulsada por la IA con “una cinta de correr gigante de la que no podemos bajarnos”, y durante el foro del viernes, a Chiang le preocupaba que la aparente humanidad de los asistentes de IA pudiera desempeñar un papel para mantenernos en la cinta de correr.
“Si la gente empieza a pensar que Alexa, o algo así, merece algún tipo de respeto, eso beneficia a Amazon”, dijo. “Eso es algo que Amazon intentaría amplificar. Cualquier corporación intentará hacerte pensar que un producto es una persona, porque vas a interactuar con una persona de cierta manera, y ellos se benefician de eso. Entonces, ésta es una vulnerabilidad en la psicología humana que las corporaciones realmente están tratando de explotar”.
Las herramientas de inteligencia artificial, incluidas ChatGPT y DALL-E, generalmente producen texto o imágenes desglosando enormes bases de datos de trabajos existentes y juntando los elementos en productos que parecen haber sido creados por humanos. La autenticidad artificial es la razón principal por la que Bender se mantiene lo más alejado posible de la IA generativa.
“El lenguaje de papel maché que surge de estos sistemas no representa la experiencia de ninguna entidad, de ninguna persona. Por eso no creo que pueda ser escritura creativa”, dijo. “Creo que existe el riesgo de que sea más difícil ganarse la vida como escritor, ya que las corporaciones intentan decir: ‘Bueno, podemos conseguir la copia…’ o de manera similar en el arte: ‘Podemos hacer las ilustraciones. mucho más barato tomando el resultado del sistema que se construyó con arte robado, visual o lingüístico, y simplemente reutilizándolo’”.
Bender levantó el pulgar hacia escritores de hollywood y actores por obtener protecciones contra la invasión de la IA durante las negociaciones contractuales de este año con los estudios. Pero desaprobó a los periodistas que introducen a escondidas contenido producido por IA en su propio trabajo. (Divulgación completa: no se utilizaron herramientas de inteligencia artificial en la redacción de este informe).
“Tengo Alertas de Google Por ejemplo, nos fijamos en la frase ‘lingüística computacional’”, dijo. “Lo establecí hace años como una forma de encontrar oportunidades laborales para mis alumnos. A partir de noviembre de 2022, siguió enviándome estos artículos de noticias en los que la gente escribía sobre ChatGPT, y una cantidad notable de ellos comenzaba con algún párrafo generado por ChatGPT, sin marcar y luego en la parte inferior de la página, “Oh, jaja, eso fue escrito por una maquina.’ Y pensé, ¿qué clase de periodista sacrificaría su integridad de esta manera? Y además, ¿cómo te atreves a engañarme para que lea un texto falso?
Se podría argumentar que Bender ha sido asimilada al ecosistema de IA simplemente en virtud del hecho de que utiliza Google Alerts, pero ella hace una distinción entre IA generativa y tecnologías de propósito especial como la traducción automática y la transcripción automática de voz a texto.
“Realmente aprecio tener un corrector ortográfico”, dijo. “Por lo tanto, la tecnología del lenguaje ciertamente puede ser valiosa”.
Incluso la IA generativa podría tener su lugar, afirmó Chiang.
“Muchas veces, el mundo nos pide que generemos un montón de textos de mierda, y si tuvieras una herramienta que pudiera manejar eso, sería genial”, dijo. “O, quiero decir, no es genial. El problema es que el mundo insiste en que generemos todo este tipo de textos de mierda. Entonces, tener una herramienta que haga eso por usted… podría decirse que es de cierta utilidad”.
Chiang y Bender coincidieron en que la IA generativa necesitará barreras regulatorias.
“Las barreras que me gustaría ver son las relacionadas con la transparencia”, dijo Bender. “Creo que todos deberíamos saber que cada vez que nos encontramos con medios sintéticos, esto debe ser inmediatamente evidente para el ojo humano. También debería estar codificado mecánicamente para que puedas filtrarlo y no verlo en absoluto. Creo que necesitamos transparencia sobre los datos de entrenamiento. Creo que necesitamos transparencia sobre el uso de la energía. Y además de eso, me encantaría ver responsabilidad. Me encantaría vivir en un mundo donde OpenAI sea realmente responsable de todo lo que produce ChatGPT”.
“No tengo nada que añadir a eso”, dijo Chiang.
Otras joyas generadas por humanos del chat del Ayuntamiento de Seattle:
- Chiang dijo que el texto generado por IA será un bendición para los estafadores de Internet: “Creo que este es un ejemplo de este problema más amplio, de texto valioso generado por humanos que se ahoga en un mar de tonterías generadas por IA”.
- Los programas de IA tienen Dominó juegos complejos como el ajedrez y el Go., pero Chiang señaló que les llevó millones de pruebas lograr ese dominio. Luego señaló un experimento en el que Las ratas aprendieron a conducir coches en miniatura después de sólo 24 pruebas.. Según esa medida, los programas de IA “no son tan buenos para la adquisición de habilidades como los ratones”, dijo Chiang. “Pasará mucho tiempo antes de que sean tan buenos en la adquisición de habilidades como los humanos”.
- Chiang reconoció que la IA lo logrará Es más difícil distinguir entre ensayos escritos por estudiantes y textos generados por máquinas.. “Es un problema gigantesco que podría ser insoluble”, afirmó. “Podría ser que la redacción de ensayos haya perdido su utilidad como herramienta pedagógica”.
- ¿La IA sacará del negocio a autores como Chiang? “No me queda del todo claro que el texto generado por IA cambie las reglas del juego en el mercado de la ficción en prosa”, dijo. “En términos del costo de publicar un libro, la cantidad que se le paga al autor es sólo una pequeña fracción de eso. Así que en realidad no estás ahorrando tanto”. Dijo que la IA generativa podría ser útil como herramienta de intercambio de ideas y señaló que el autor de ciencia ficción Philip K. Dick Usó monedas de adivinación del I Ching para un propósito similar. cuando escribió “El hombre en el castillo alto”.
- Podría decirse que Chiang es mejor conocido como el autor del cuento que inspiró la película “Arrival” de 2016, que presenta a un profesor de lingüística como personaje principal. La “llegada” también refleja un concepto controvertido en lingüística conocido como Hipótesis de Sapir-Whorf. Entonces, ¿qué piensan los lingüistas de la historia de Chiang? “Todos mis amigos lingüistas están celosos de que pueda conocer a Ted”, dijo Bender. “Voy a hablar en el Sociedad Lingüística de América en enero y ya estoy organizando mi charla para poder presumir de esto”.