La IA da su opinión sobre la comida, aunque no la mastique ni la trague

La IA da su opinión sobre la comida, aunque no la mastique ni la trague

(Estamos en WhatsApp. Empieza a seguirnos ahora)

La pizza de masa blanca de Frank Pepe Napoletana Pizzeria en New Haven, Connecticut, es un verdadero hallazgo. La masa, besada por el intenso calor del horno de brasas, tiene el equilibrio perfecto entre crujiente y suave. Acompañado de almejas recién peladas, ajo, orégano y una pizca de queso rallado, es una prueba de la magia que pueden evocar ingredientes simples y de alta calidad.

¿Suena como algo que yo escribiría? Bueno no. El párrafo completo, excepto el nombre de la pizzería y la ciudad, fue generado por GPT-4, como resultado de una simple instrucción que solicitaba una reseña de un restaurante al estilo de Pete Wells.

Tengo algunas objeciones. Nunca diría que algo de comida es una revelación, ni describiría la calidez como un beso. No creo en la magia y rara vez señalo algo como perfecto sin usar «casi» o algún otro calificativo. Pero estas vagas descripciones son tan comunes en la literatura gastronómica que sospecho que muchos lectores apenas las notan. Tengo especial cuidado con ellos porque cada vez que uso un cliché en el texto, el editor me abofetea.

No se dejaría engañar por el falso Pete; yo tampoco. Pero por mucho que me duela admitirlo, imagino que mucha gente diría que es una falsificación de cuatro estrellas.

El responsable de False Me es Balázs Kovács, profesor de comportamiento organizacional en la Escuela de Administración de Yale. En un estudio reciente, proporcionó una gran cantidad de reseñas de Yelp sobre GPT-4, la tecnología detrás de ChatGPT, y le pidió que las imitara. Sus sujetos, los humanos, no podían distinguir entre reseñas auténticas y aquellas generadas por inteligencia artificial. De hecho, es más probable que pensaran que las opiniones de la IA eran reales. (El fenómeno de las falsificaciones generadas por computadora que son más convincentes que las reales es tan conocido que tiene un nombre: Hiperrealismo de la Inteligencia Artificial.)

El estudio de Kovács es parte de un creciente cuerpo de investigaciones que sugieren que las últimas versiones de inteligencia artificial generativa pueden pasar la prueba de Turing, un estándar científicamente vago pero culturalmente resonante. Cuando una computadora puede hacernos creer que el lenguaje que produce fue escrito por un ser humano, decimos que ha pasado la prueba de Turing.

Durante mucho tiempo se ha asumido que la inteligencia artificial eventualmente superará esa prueba, propuesta por primera vez por el matemático Alan Turing en 1950. Aun así, incluso algunos expertos se sorprenden de la velocidad a la que está mejorando la tecnología. «Está sucediendo más rápido de lo que la gente esperaba», afirmó Kovács.

Cuando Kovács pidió por primera vez a GPT-4 que imitara a Yelp, pocos se dejaron engañar. La prosa era demasiado perfecta. Eso cambió cuando Kovács ordenó al programa que usara ortografía coloquial, enfatizara algunas palabras en mayúscula e insertara tipfellers, uno o dos en cada reseña. Esta vez, GPT-4 pasó la prueba de Turing.

Más allá de establecer un umbral en el aprendizaje automático, la capacidad de la inteligencia artificial para sonar como nosotros podría socavar la confianza que todavía tenemos en la comunicación verbal, especialmente en las más breves. Los mensajes de texto, el correo electrónico, las secciones de comentarios, los artículos periodísticos, las publicaciones en las redes sociales y las reseñas de los usuarios se volverán aún más sospechosos de lo que ya son. ¿Quién va a creer una publicación de Yelp sobre un croissant de pizza o un fantástico artículo de OpenTable sobre una degustación de sushi omakase de 400 dólares sabiendo que su autor podría ser una máquina que no puede masticar ni tragar?

«Con las reseñas generadas por los consumidores, siempre ha existido la pregunta de quién está detrás de la pantalla», dijo Phoebe Ng, estratega de comunicaciones del restaurante de Nueva York. «Ahora se trata de lo que hay detrás de la pantalla».

Las reseñas online son la grasa que impulsa el comercio moderno. En una encuesta del Pew Research Center de 2018, el 57 por ciento de los estadounidenses encuestados dijeron que siempre o casi siempre leen reseñas y calificaciones en línea antes de realizar la primera compra de un producto o servicio. Otro 36 por ciento dijo que a veces lo hacía.

Para defenderse de las críticas de mala fe, algunos propietarios contratan a personas cercanas a ellos para inundar el área con comentarios positivos. «Una pregunta es esta: ¿Cuántos alias tenemos todos los que trabajamos en la industria de la restauración?» dijo Steven Hall, propietario de una firma de relaciones públicas de Nueva York.

Un paso adelante respecto a la campaña de votación, o quizás un paso hacia abajo, es la práctica de intercambiar comidas gratis o dinero en efectivo por críticas positivas. Más allá de eso se alza el vasto y oscuro reino de los críticos que no existen.

Para promover su propio negocio o intimidar a sus rivales, las empresas pueden contratar intermediarios que han producido pequeños ejércitos de críticos ficticios. Según Kay Dean, una defensora del consumidor que investiga el fraude de reseñas en línea, estas cuentas a menudo tienen un largo historial de reseñas anteriores que sirven como camuflaje para su puntuación paga.

En dos videos recientes, destacó una cadena de clínicas de salud mental que recibieron críticas entusiastas en Yelp supuestamente enviadas por pacientes satisfechos, pero cuyas cuentas estaban llenas de reseñas de restaurantes tomadas palabra por palabra de TripAdvisor.

«Es un océano de mentiras, y mucho peor de lo que la gente cree», dijo Dean. «Engañan a los consumidores, perjudican a las empresas honestas y socavan la confianza».

Kovács cree que los sitios web tendrán que esforzarse más para demostrar que no publican regularmente los pensamientos de los robots. Podrían, por ejemplo, adoptar algo como la etiqueta «Compra verificada» que Amazon coloca en las reseñas de productos comprados o descargados a través de su sitio. Si los lectores aún no confían en las reseñas de restaurantes obtenidas mediante crowdsourcing, esta podría ser una oportunidad para OpenTable y Resy, que solo aceptan comentarios de los huéspedes que acuden a sus reservaciones.

Una cosa que podría no funcionar es pedirle a las computadoras que analicen el idioma. Kovács publicó sus propias reseñas reales y ficticias en Yelp de programas que supuestamente identifican la IA. Al igual que sus sujetos, dijo, el software «pensó que las falsificaciones eran reales».

Esto no me sorprendió. Yo mismo examiné la encuesta de Kovács, confiando en poder detectar los pequeños detalles específicos que mencionaría un verdadero comensal. Después de hacer clic en la casilla para confirmar que no era un robot, rápidamente me perdí en un desierto de signos de exclamación y caras brillantes. Cuando llegué al final de la prueba, sólo estaba adivinando. Identifiqué correctamente siete de veinte reseñas, una puntuación a medio camino entre lanzar una moneda y preguntarle a un mono.

Lo que me confundió fue que GPT-4 no inventó sus opiniones de la nada. Los recopiló a partir de fragmentos de descripciones de sus almuerzos y refrigerios dominicales de los clientes de Yelp.

«No está completamente compuesto en términos de lo que la gente valora y le importa», afirmó Kovács. «Lo aterrador es que puedes crear una experiencia que se ve y huele como la experiencia real, pero no lo es».

Por cierto, Kovács me dijo que envió el primer borrador de su trabajo a un programa de edición de IA y tomó muchas de sus sugerencias en la copia final.

Puede que no pase mucho tiempo antes de que la idea de una revisión puramente humana parezca extraña. Se invitará a los robots a leer por encima de nuestro hombro, avisarnos cuando usemos el mismo adjetivo demasiadas veces, animarnos a usar un verbo más activo. Las máquinas serán nuestros maestros, nuestros editores, nuestros colaboradores. Incluso nos ayudará a parecer humanos.