Goda råd från @ruiters: GPT-5 är inte trasig. Dina uppmaningar är. Många människor, inklusive jag själv, förväntade sig att GPT-5 skulle vara fungibel i den meningen att man kunde släppa den direkt i dina befintliga arbetsflöden, och det skulle "bara fungera". Men djupet i GPT-5-promptguiden gör det tydligt: detta är en stor förändring; En större version bump, om du vill. Till och med Cursor-teamet, som ledde pilotimplementeringen av den nya modellen, ropade ut det: > "GPT-5 är en av de mest styrbara modellerna jag har använt. Jag har behövt vara mer tydlig med vad jag försökte uppnå för vissa uppgifter. Att lämna saker och ting vaga slutade med att modellen tog en annan riktning än jag förväntade mig. När jag var mer specifik blev jag förvånad över hur smart modellen var. Användarnas frustration är Hyrums lag i aktion: > Med ett tillräckligt antal användare av ett API spelar det ingen roll vad du lovar i kontraktet: alla observerbara beteenden i ditt system kommer att vara beroende av någon. Detta betyder i princip att OpenAI är tillräckligt stort för att nu, oavsett vilka ändringar de gör, eller hur mycket bättre modellerna är, kommer folk alltid att klaga eftersom de har byggt sina system för att vara beroende av modellernas beteende vid den tidpunkten. OpenAI-teamet har sagt det själva: GPT-5 är extremt styrbar. Detta är både funktion och bugg: * Den kommer att göra vad du säger åt den att göra * Men du måste veta vad du vill att den ska göra eller åtminstone formulera din avsikt bättre På HYBRD har jag använt GPT-5 och funnit att det fungerar ganska bra med lämplig uppmaning, och ganska dåligt utan. Om du skickar med GPT-5: 1. Behandla uppmaningar som kod: version, testa och granska dem. -- DET HÄR ÄR DEN VIKTIGASTE! 2. Läs uppmaningsguiden och förstå hur den här modellen faktiskt fungerar (länk i kommentarerna) 3. Kör dina uppmaningar genom OpenAI Prompt Optimizer (länk i kommentarerna) 4. Be den att planera sitt tillvägagångssätt innan du rör någon kod.
262