「ラマのある建物4」をご紹介します。このショートコースは@Meta @AIatMetaと共同で作成し、MetaのAIチームのパートナーエンジニアリングディレクターである@asangani7が教えています。 Metaの新しいLlama 4は、3つの新しいモデルを追加し、オープンウェイトモデルのファミリーにMixture-of-Experts(MoE)アーキテクチャを導入し、より効率的にサービスを提供できるようにしました。 このコースでは、Llama 4で導入された3つの新しいモデルのうち2つを使用します。1つ目は、400BパラメータモデルであるMaverickで、128人の専門家と17Bのアクティブパラメータがあります。2 つ目は Scout、16 人の専門家と 17B のアクティブ パラメーターを持つ 109B パラメーター モデルです。MaverickとScoutは、それぞれ最大100万トークンと10Mトークンの長いコンテキストウィンドウをサポートしています。後者は、かなり大きなGitHubリポジトリを直接入力して分析することをサポートするのに十分です。 ハンズオン レッスンでは、Llama 4 の新しいマルチモーダル機能を使用して、複数の画像にわたる推論や、画像内の要素を識別できる画像グラウンディングなどを使用してアプリを構築します。また、公式の Llama API を使用し、Llama 4 のロング コンテキスト機能を使用し、Llama の最新のオープンソース ツール (システム プロンプトを自動的に改善するプロンプト最適化ツールや、微調整のための高品質のデータセットを生成する合成データ キット) について学びます。 オープンモデルが必要な場合、Llama は優れたオプションであり、Llama 4 ファミリーは GenAI 開発者のツールキットの重要な部分です。このコースでは、API 経由で Llama 4 を呼び出し、その最適化ツールを使用し、テキスト、画像、および大きなコンテキストにまたがる機能を構築する方法を学びます。 こちらからご登録ください。
57.63K