2026年03月31日

## 要約:
多言語マルチモーダルモデル(MLLM)の進化を阻害するデータ不足に対し、連合学習(FL)を活用した新たな事前学習パラダイム「Fed-MA」を提案。パラメータ干渉や勾配振動といった課題を解決するFed-CMPフレームワークを開発し、公開データセットを用いた実験で既存手法を大幅に上回る性能を実証した。
連合学習により、プライバシー保護された分散データを利用し、MLLMの学習を効率化する。
---
## 翻訳:
arXiv:2603.26786v1 Announce Type: new
Abstract: 多言語マルチモーダルモデル(MLLM)の急速な進化は、高品質な公開データの飽和によってボトルネックとなっています。一方で、膨大な量の多様なマルチモーダルデータが、プライバシーに配慮した分散環境(サイロ)にアクセスできないまま残っています。連合学習(FL)は、これらの分散リソースを解放するための有望な解決策を提供しますが、既存の研究は主にファインチューニングに焦点を当てており、基礎となる事前学習段階はほとんど探求されていません。本論文では、ビジョンエンコーダとLLMを固定し、クロスモーダルプロジェクタを共同で訓練する軽量な事前学習パラダイムである、連合MLLMアライメント(Fed-MA)タスクを正式に紹介します。この設定における2つの重要な課題を特定しました。(i) パラメータ干渉はローカルプロジェクタを集約する際に発生し、(ii) 勾配振動はワンパス共同SGDにおいて発生します。これらの課題に対処するため、我々は連合MLLM事前学習のための先駆的なフレームワークであるFed-CMPを提案します。Fed-CMPは、規範的な信頼性に基づく集約(Canonical Reliability-Aware Aggregation)を導入し、規範空間を構築してクライアントプロジェクタを共有アライメント基底とクライアント固有の係数に分解し、信頼性加重の融合を実行することでパラメータ干渉を抑制します。さらに、Fed-CMPは直交性保持モメンタム(Orthogonality-Preserved Momentum)を導入し、直交射影によって共有アライメント基底にモメンタムを適用し、過去の最適化方向を蓄積しながら幾何学構造を保持します。我々は公開データセットに基づいて4つの連合事前学習シナリオを構築し、広範な実験によりFed-CMPは既存のベースラインを大幅に上回ることが検証されました。
[📰 原文はこちら](https://arxiv.org/abs/2603.26786)
---
※本記事はAI(Ollama)による自動翻訳・要約です。
BittensorManがお勧めするメーカーリスト
https://exbridge.jp/xdirect/
AI時代の技術と知識のまとめ(AI生成メディア) - AIDexx
https://exbridge.jp/aidexx/
頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。
動画の最後にお得な情報がありますので、
最後までご覧ください。