Begynner å føles som om dette gpt-osset ble trent på som 20T-tokens av destillert safe, kanskje til og med benchmaxxed data fra o3. Det ser ikke ut til å være noen basismodell under. Er dette phi 5 maxx?
Venter på @karan4d og @repligate sine utforskninger av det lol
@karan4d @repligate Hvis det er en ren destillasjonsfortrening, kan det ikke være noen "basismodell" å gi ut, fordi det aldri har vært en
@karan4d @repligate Modellen er bokstavelig talt ikke i stand til å fungere hvis den ikke bruker chat-malen? Jeg har nevrr sett det på en modell som var forhåndstrent på rå internetttekst
2,75K