
## 要約:
dependency parse treesを使用するTree Matching Networks (TMN)は、BERTベースのモデルよりも少ない記憶容量と短い学習時間でSNLIタスクでの結果を大幅に向上させた。
---
## 翻訳:
自然言語推論(NLI)タスクのために文節解析木を使用する木マッチングネットワーク(TMN)を提案し、Graph Matching Networks(GMN)をdependency parse trees上で動作させる手法を開発しました。SNLIの対応関係タスクとSemEval類似性タスクでBERTベースのモデルとの比較を行い、SNLIでは大幅に少ない記憶容量と学習時間を有して優れた結果を得ることができました。しかし、SemEvalでは両モデルともよく性能を発揮できませんでした。明示的な構造表現は、同一規模でも列ベースモデルよりも優れており、しかし現在の集約方法はスケーラビリティに制限があります。そこで多頭注意力集約を提案しています。
[📰 原文はこちら](https://arxiv.org/abs/2512.00204)
---
※本記事はAI(Ollama)による自動翻訳・要約です。
頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。
BittensorManがお勧めするメーカーリスト
http://exbridge.jp/xdirect/
動画の最後にお得な情報がありますので、
最後までご覧ください。