ページ

2026年1月23日金曜日

FedUMM:統一的な多様性モデルを用いた連合学習フレームワーク

#aidexx #news

2026年01月23日


## 要約:
本論文では、プライバシー保護と地理的分散環境に適した連合学習フレームワーク「FedUMM」を提案しています。既存の統一的な多種多様モデル(UMM)を軽量なパラメータのみで微調整することで、通信コストを大幅に削減し、複数クライアントによる連合学習を可能にしました。実験結果は、中央集権的な学習と比較しても競争力のある性能を示し、将来の研究への道筋を示しています。

---

## 翻訳:
arXiv:2601.15390v1 Announce Type: new
Abstract: 統一的な多種多様モデル(UMM)は、生成タスクと理解タスクの両方を単一のアーキテクチャで実行できる強力な基盤モデルとして登場しています。しかし、これらは通常、すべてのトレーニングおよびダウンストリームデータセットが中央サーバーに収集される集中環境でトレーニングされており、プライバシーに敏感で地理的に分散したシナリオへの展開が制限されています。本論文では、非IIDな多様性データにおける低通信コストでUMMのための一般的な連合学習フレームワークであるFedUMMを提示します。NVIDIA FLAREを基盤とするFedUMMは、パラメータ効率の高い微調整によってBLIP3oバックボーンのための連合をインスタンス化します。クライアントは軽量なLoRAアダプターをトレーニングし、基盤モデルを凍結し、サーバーはアダプターの更新のみを集約します。Dirichlet制御による不均一性により、最大16クライアントでVQA v2とGenEval構成生成ベンチマークで評価します。クライアント数と不均一性の増加に伴い若干の低下が見られますが、中央集権的なトレーニングと比較しても競争力があります。計算と通信のトレードオフをさらに分析し、アダプターのみの連合がフルな微調整と比較してラウンドごとの通信を10倍以上に削減し、現実的な連合UMMトレーニングを可能にすることを実証します。この研究は、プライバシー保護された連合統一的な多種多様モデルに関する今後の研究に経験的な道筋を提供します。

[📰 原文はこちら](https://arxiv.org/abs/2601.15390)

---

※本記事はAI(Ollama)による自動翻訳・要約です。

BittensorManがお勧めするメーカーリスト
https://exbridge.jp/xdirect/

AI時代の技術と知識のまとめ(AI生成メディア) - AIDexx
https://exbridge.jp/aidexx/

頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。

動画の最後にお得な情報がありますので、
最後までご覧ください。

WurtS 休養とライブ中止を発表

#aidexx #news 2026年01月23日 1/23(金) 17:12 音楽ナタリー WurtSが体調不良のため休養「第2章は最高のカタチで帰ってくる」 WurtSが体調不良のため当面の間休養することが、公式サイトおよびSNSアカウントにて発表された。 「Wurt...