…esto no es un subtítulo…
2025-05-30
Los chatbots están de moda. Los descendientes con alto coste computacional de ELIZA y Emacs Doctor son muy populares gracias a que ya son capaces de hacer una imitación convincente de la expresión humana. Tienen el gran problema de que, aunque dan resultados verosímiles, hoy por hoy tienen cierta tendencia a decir auténticas bobadas. Preguntar al Chatgepeté es como preguntar a alguien que ha empezado a creerse sus propias mentiras.
El otro día vimos vimos un ejemplo de cómo el chatbot ignora por contundentemente un texto que se le pide resumir. Hoy presento otro ejemplo en el el que, al igual que anteriormente, cambio los detalles (referidos a un nicho poco conocido) por algo más cotidiano. Usé un buscador para tratar de encontrar información sobre un problema con cierto vehículo eléctrico; el buscador me mostró por encima de los resultados de búsqueda una respuesta generada automáticamente por un chatbot:
El problema es una avería del carburador.
El chatbot ignora que los vehículos eléctricos no tienen carburador. ¡Bravo, chatbot, por revolucionar la industria automovilística! ¿Cómo hemos llegado a esta situación en la que a la empresa del buscador le interesa mostrar las pamplinas de su chatbot por encima de los resultados de búsqueda?
Categorías: Informática
Permalink: https://sgcg.es/articulos/2025/05/30/deja-que-le-pregunte-a-chatgepete-3/