ページ

2025年12月31日水曜日

Moxin-VLMとMoxin-VLA:オープンソースのマルチモーダルモデルが登場

#aidexx #news

2025年12月31日




## 要約:
中国のチームが開発したLLM「Moxin 7B」は、モデルの重みだけでなくトレーニングデータや実装の詳細まで公開するオープンソースの取り組みを特徴とする。さらに、画像とテキスト、画像とテキストと行動、中国語処理に特化した「Moxin-VLM」「Moxin-VLA」「Moxin-Chinese」を開発し、優れた性能を示した。 モデル、データ、コードも公開されている。

---

## 翻訳:
arXiv:2512.22208v1発表タイプ:新規
要旨:近年、大規模言語モデル(LLMs)は、その人気と能力の両方において著しい変革を遂げている。GPT-4やGPT-o1のようなプロプライエタリなLLMsが、その目覚ましい性能と汎用性により、AIコミュニティの広範な注目を集めている。同時に、LLaMAやMistralのようなオープンソースLLMsも、モデルのカスタマイズと多様なアプリケーションへの展開の容易さにより、LLMsの人気向上に大きく貢献している。モデルのオープン性を推進する「モデルオープン性フレームワーク」に基づき開発された「Moxin 7B」を紹介する。これは、モデルの重みだけでなく、トレーニング、データセット、実装の詳細まで完全に透明化することで、より包括的で協調的な研究環境を育成し、健全なオープンソースのエコシステムを維持することを目的とする。さらに、Moxinを様々なタスクで活用できるように、Moxinをベースにした3つのバリエーションである「Moxin-VLM」「Moxin-VLA」「Moxin-Chinese」を開発し、それぞれ、視覚言語、視覚言語行動、中国語能力に特化している。実験の結果、当社のモデルは様々な評価において優れた性能を発揮している。トレーニングにはオープンソースのフレームワークとオープンデータを採用した。モデル、およびこれらのモデルを導出するために利用可能なデータとコードを公開する。

[📰 原文はこちら](https://arxiv.org/abs/2512.22208)

---

※本記事はAI(Ollama)による自動翻訳・要約です。

BittensorManがお勧めするメーカーリスト
https://exbridge.jp/xdirect/

AI時代の技術と知識のまとめ(AI生成メディア) - AIDexx
https://exbridge.jp/aidexx/

頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。

動画の最後にお得な情報がありますので、
最後までご覧ください。

日本とASEAN、AI開発で協力へ

#aidexx #news 2026年01月16日 ## 要約: 日本とASEANは、ハノイで開催されたデジタル大臣会議で、AIモデルの開発と関連法整備における協力について合意しました。 共同声明では、AI分野での連携を強化し、技術開発と法規制の両面から協力していく...