Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Automatisering av konvertering fra tekst til SQL er fortsatt en stor oppgave, og det er svært få gode åpen kildekode-modeller for denne oppgaven.
La oss bryte ned dette -
>Tekst til SQL-konverteringsmodeller er i utgangspunktet ikke annet enn koder-dekodermodeller med et multi-oppmerksomhetslag og et skjemakoblingslag i mellom.
> Koderen behandler både brukerspørringen og databaseskjemaet og genererer kontekstavhengige innebygginger ( relasjonsbevisst koding )
>Gjennom skjemakobling justeres tokener i spørringen med tilsvarende skjemaenheter
>Den skjemabevisste oppmerksomhetsmekanismen lar deretter modellen fokusere på relevante deler av skjemaet under dekoding
> Dekoderen produserer sekvensielt SQL-tokens (begrensningsbasert dekoding)
Hvor mangler disse modellene? -
>De fleste av de tilgjengelige modellene mangler komplekse spørringer i selve treningsdataene og fungerer derfor dårlig på spørringer på tvers av domener eller sløyfe.
> Krav til språk og spørring er ikke alltid riktig fra en vanlig bruker. Selv stavefeil fører til feil oppføring og forårsaker problemer under henting, og derfor er oppfordring en viktig del av denne oppgaven.
Jeg personlig jobbet med dette i detalj da jeg laget et ende-til-ende-prosjekt, laget til og med syntetiske data og prøvde å trene min egen SLM, men mislyktes totalt og fortsatte deretter med å bruke en åpen kildekode-modell.
Hvis du vil dykke dypt inn i dette, vil jeg anbefale å lese disse forskningsartiklene først -
>LLM-forbedret tekst-til-SQL-generering
>Neste generasjons databasegrensesnitt:
>Tekst-til-SQL-parsing: Konsepter og metoder
>RASAT: Integrering av relasjonsstrukturer i forhåndstrent Seq2Seq-modell




Topp
Rangering
Favoritter

