Пробелы в кодогенерации LLMs — даже в SOTA: 1. чтение намерений пользователя 2. необычный синтаксис / библиотеки Хак для #1 — дать моделям выраженный голос, чтобы обеспечить согласованность (как можно узнать, что каждый флаер сделан ChatGPT) Модели должны стать умнее, потому что #2 становится хуже из-за хаков для #1.
372