➥ OpenMind: ロボットのための Uber ロボットは急速に進歩していますが、依然として共有された知性と信頼が欠けています。 @openmind_agiは、機械が認識と調整を獲得するオープンレイヤーを構築しています。 OpenMind が 30 年代🧵の DePAI をどのように形作っているかは次のとおりです — — — ► OpenMindとは OpenMind は、ロボットが現実世界で考え、学習し、調整できるようにするオープンソース インフラストラクチャを構築します。 @PanteraCapitalを筆頭に、@RibbitCapital、@cbventures、@DCGcoなどの支援者とともに$20Mを調達しました。 OpenMind は 2 つの柱に基づいています。 ❶ OM1 – 認知のためのロボット OS。 ❷ FABRIC – 信頼と調整のための分散型ネットワーク。 — ► OM1 OM1 は、ロボットを知覚、推論、行動が可能な AI ネイティブ エージェントに変えるモジュラー オペレーティング システムです。 ヒューマノイド、四足歩行、デジタルエージェントで実行され、センサー、AIモデル、実行を1つのランタイムでリンクします。 ➤ 主な機能 ▸ マルチモーダル入力: ビジョン、オーディオ、GPS、LIDAR データを処理します ▸ AI キャプション: センサー入力を自然言語のコンテキストに変換します ▸ NLDB: AI モジュール間のデータ フローの中央ハブ ▸ マルチ LLM 計画: 意思決定のための高速モデル、コアモデル、コーチモデルをレイヤー化します。 ▸ HAL: 移動、音声、ウォレットのアクションを実行します ➤ 使用例 ▸ ユーザーの行動に適応するホームロボット ▸ 教育・研究機関 ▸ 検査および物流用の産業用ロボット ▸ AI のテストとトレーニングのための仮想エージェント ➤アーキテクチャ OM1 は 6 つのレイヤーで実行され、データ フュージョンと AI 調整を通じて認識を行動に変換します。 ❶ 生センサー層 – 視覚、音、空間データをキャプチャします ❷ AI キャプション – 入力を言語に変換します ❸ NLDB – コンポーネント間のコンテキストのルーティング ❹ 状態定着器 – 状況認識を構築します ❺ マルチLLM計画 – 推論と実行を促進 ❻ HAL – 物理世界またはデジタル世界でアクションを実行します — ► ファブリック FABRIC は、人間とロボットにオンチェーンで検証可能な ID、調整、信頼を与える分散型ネットワークです。 @base上に構築されており、OM1を利用したエージェントを共有システムに接続し、データ、場所、アクションが透過的に記録されます。 ➤ 主な機能 ▸ ロボットの行動、所有権、支払いを記録してオンチェーンの説明責任を果たします ▸ 検証済みの ID バッジを通じて人間の貢献者と機械をリンクします ▸ エージェント間の許可されたデータ共有とスキル転送を可能にします ▸ リアルタイム同期でマルチロボットの操作を調整 ➤ コアピラー ▸ 検証可能なマシン: 各ロボットは、認証された ID と位置証明を使用して参加します ▸ 信頼できるコラボレーション: ロボットは透明なオンチェーン ルールの下でデータを交換します ▸ 共有インテリジェンス: エージェントをリンクして、ネットワークとして学習、適応、運用します — ► なぜそれが重要なのか ロボット工学は、研究室から信頼と安全性が不可欠な現実世界の空間へと移行しつつあります。 OpenMind の OM1 は、@F1と@IROS2025のヒューマノイドを強化し、人間と機械の間のリアルタイムの相互作用を証明します。 @NUSingaporeと協力して、安全な自律システムを推進しています。 OpenMind は、認知とブロックチェーン検証を融合することで、安全で検証可能なロボット工学の導入のためのガードレールを構築します — ► まとめ OpenMind は、OM1 と FABRIC を通じて認知と信頼を統合し、分散型物理 AI の基盤を形成します。 @KaitoAI リーダーボードはライブで、誰でも OpenMind について yapp して報酬を獲得できます。 推論とブロックチェーン検証を組み合わせることで、マシンが安全にコラボレーションするための安全なレイヤーを構築します。 ロボット工学が日常生活の一部になるにつれて、OpenMind は人間とインテリジェント システムの間の架け橋としての役割を果たしています
— 免責事項
5.41K