La automatización de la conversión de texto a SQL sigue siendo una gran tarea y hay muy pocos modelos de código abierto buenos para esta tarea. Desglosemos esto - >Los modelos de conversión de texto a SQL no son más que modelos de codificador-decodificador con una capa de atención múltiple y una capa de enlace de esquema en medio. > El codificador procesa tanto la consulta del usuario como el esquema de la base de datos y genera incrustaciones contextuales (codificación consciente de relaciones) >A través del enlace de esquema, los tokens en la consulta se alinean con las entidades del esquema correspondientes. >El mecanismo de atención consciente del esquema permite al modelo centrarse en las partes relevantes del esquema durante la decodificación. > El decodificador produce secuencialmente tokens SQL (decodificación basada en restricciones). ¿Dónde carecen estos modelos? - >La mayoría de los modelos disponibles carecen de consultas complejas en los datos de entrenamiento y, por lo tanto, tienen un rendimiento deficiente en consultas de dominio cruzado o en bucle. > El lenguaje y los requisitos de consulta no siempre son correctos desde el punto de vista de un usuario normal. Incluso los errores ortográficos conducen a entradas incorrectas y causan problemas durante la recuperación, por lo que la indicación es una parte importante de esta tarea. Personalmente trabajé en esto en detalle cuando estaba haciendo un proyecto de extremo a extremo, incluso creé datos sintéticos y traté de entrenar mi propio SLM, pero fracasé miserablemente y luego opté por usar un modelo de código abierto. Si quieres profundizar en esto, te recomendaría leer primero estos artículos de investigación - >Generación de Texto a SQL Mejorada por LLM >Interfaces de Base de Datos de Nueva Generación: >Parsing de Texto a SQL: Conceptos y Métodos >RASAT: Integrando Estructuras Relacionales en un Modelo Seq2Seq Preentrenado.