codegen LLM(SOTAを含む)のギャップ: 1. ユーザーの意図を読書する 2. 珍しい構文/ライブラリ #1 のハック — モデルに意見の持つ声を与えてまとまりを確保する (ChatGPT によって作成されたすべてのチラシを伝える方法など) モデルは賢くならなければなりません #2 は #1 のハックによって悪化します。
361