OpenAI gpt-oss を微調整しましょう (100% ローカルで):
今日は、OpenAI の最新の gpt-oss をローカルで微調整する方法を学びましょう。 ビデオに示されているように、多言語推論機能を提供します。 以下を使用します。 - 効率的な微調整のための@UnslothAI。 - トランスフォーマー@huggingfaceローカルで実行します。 さあ、始めましょう!
1️⃣ モデルをロードする まず、Unslothを使用してgpt-oss(20Bバリアント)モデルとそのトークナイザーをロードします。 これを👇チェックしてください
2️⃣ LoRA構成の定義 効率的な微調整のためにLoRAを使用します。 これを行うには、UnslothのPEFTを使用し、次のように指定します。 - モデル - LoRA低ランク(r) - 微調整などのレイヤー このコード👇を確認してください
3️⃣ データセットを読み込む gpt-ossを微調整し、多言語推論能力の開発を支援します。 そこで、次の多言語思考データセットをロードします。 - 英語でのユーザークエリ。 - さまざまな言語での推論。 - 英語での回答。 これを👇チェックしてください
4️⃣ データセットを準備する 微調整する前に、データセットを会話形式で準備する必要があります。 - データセットを標準化します。 - メッセージフィールドを選択します。 - チャットテンプレートを適用します。 コードとデータサンプル👇を確認する
5️⃣ トレーナーの定義 ここでは、学習率、モデル、トークナイザーなどのトレーニング構成を指定して、Trainer オブジェクトを作成します。 これがいいと思います 👇
6️⃣ 電車 それが終わったら、トレーニングを開始します。 損失は一般にステップごとに減少しており、これはモデルが正しく微調整されていることを意味します。 このコードとトレーニングログ👇を確認してください
最後に、ビデオは、微調整の前後にLLMにプロンプトを表示する様子を示しています。 微調整後、モデルは英語で最終的な応答を生成する前に、フランス語で推論トークンを生成できます。 これを👇チェックしてください
これでおしまいです! 洞察力に富んでいると感じた場合は、ネットワークで再共有してください。 → @_avichawla探して 私は毎日、DS、ML、LLM、RA に関するチュートリアルと洞察を共有しています。
Avi Chawla
Avi Chawla14時間前
OpenAI gpt-oss を微調整しましょう (100% ローカルで):
52.19K