Luki w generacji kodu w LLM - nawet SOTA: 1. odczytywanie intencji użytkownika 2. nietypowa składnia / biblioteki Sposób na #1 - dać modelom wyrazisty głos, aby zapewnić spójność (tak jak można rozpoznać każdy plakat stworzony przez ChatGPT) Modele muszą stać się mądrzejsze, ponieważ #2 staje się gorsze z hacków na #1.
368