La automatización de la conversión de texto a SQL sigue siendo una gran tarea y hay muy pocos buenos modelos de código abierto para esta tarea. Analicemos esto: >Los modelos de conversión de texto a SQL no son básicamente más que modelos de codificador-decodificador con una capa de atención múltiple y una capa de enlace de esquema en el medio. > El codificador procesa tanto la consulta de usuario como el esquema de la base de datos y genera incrustaciones contextuales (codificación con reconocimiento de relaciones) >A través de la vinculación de esquemas, los tokens de la consulta se alinean con las entidades de esquema correspondientes >El mecanismo de atención consciente del esquema permite que el modelo se centre en las partes relevantes del esquema durante la decodificación > El decodificador produce secuencialmente tokens SQL (decodificación basada en restricciones) ¿Dónde faltan estos modelos? - >La mayoría de los modelos disponibles carecen de consultas complejas en los datos de entrenamiento en sí y, por lo tanto, tienen un rendimiento deficiente en consultas entre dominios o en bucle. > requisito de idioma y consulta no siempre es correcto para un usuario normal. Incluso los errores ortográficos conducen a una entrada incorrecta y causan problemas durante la recuperación, por lo que la indicación es una parte importante en esta tarea. Personalmente trabajé en esto en detalle cuando estaba haciendo un proyecto de extremo a extremo, incluso hice un dato sintético e intenté entrenar mi propio SLM, pero fallé miserablemente y luego pasé a usar un modelo de código abierto. Si desea profundizar en esto, le recomendaría leer primero estos trabajos de investigación: >LLM Generación mejorada de texto a SQL >Interfaces de base de datos de próxima generación: >Análisis de texto a SQL: conceptos y métodos >RASAT: Integración de estructuras relacionales en el modelo Seq2Seq preentrenado