Lücken in Code-Generierungs-LLMs – selbst SOTA: 1. Gedankenlesen der Benutzerabsicht 2. Ungewöhnliche Syntax / Bibliotheken Hack für #1 – gib den Modellen eine meinungsstarke Stimme, um Kohärenz zu gewährleisten (so wie man bei jedem Flyer, der von ChatGPT erstellt wurde, erkennen kann) Modelle müssen intelligenter werden, denn #2 wird durch Hacks für #1 schlimmer.
366