2026年04月27日

## 要約:
患者と治験のマッチングにおける課題解決のため、情報検索と大規模言語モデルを組み合わせた軽量なフレームワークを提案。EHRから関連情報を効率的に抽出し、軽量な予測モデルで分類することで、計算コストを大幅に削減しつつ高い精度を実現した。構造化データでは凍結されたLLMが有効だが、非構造化データではファインチューニングが必要であることを示した。
---
## 翻訳:
抄録:患者と治験のマッチングには、長くて多様な電子カルテ(EHR)と複雑な適格基準を考慮する必要があり、スケーラビリティ、一般化、計算効率の点で大きな課題があります。既存のアプローチは、大規模言語モデル(LLM)によるフルドキュメント処理に依存しており、計算コストが高くなるか、非構造化臨床記録を捉えることが難しい従来の機械学習メソッドを使用します。本研究では、スケーラブルな患者と治験のマッチングのために、検索拡張生成と大規模言語モデルベースのモデリングを組み合わせた軽量フレームワークを提案します。このフレームワークは、2つの主要なコンポーネントを明示的に分離します。検索拡張生成は、EHRから臨床的に関連性の高いセグメントを特定するために使用され、入力の複雑さを軽減し、大規模言語モデルは、これらの選択されたセグメントを情報的な表現に符号化するために使用されます。これらの表現は、さらに次元削減を通じて改善され、軽量な予測子を使用してモデリングされ、効率的でスケーラブルなダウンストリーム分類を可能にします。提案手法を複数の公開ベンチマーク(n2c2、SIGIR、TREC 2021/2022)と、メイヨー・クリニックのリアルワールドなマルチモーダルデータセット(MCPMD)で評価しました。その結果、検索ベースの情報選択は、計算負担を大幅に軽減しつつ、臨床的に意味のある信号を維持することがわかりました。さらに、凍結されたLLMは構造化された臨床データに強力な表現を提供する一方、非構造化臨床記録のモデリングにはファインチューニングが不可欠であることが示されました。重要な点は、提案された軽量パイプラインが、大幅に低い計算コストでエンドツーエンドのLLMアプローチと同等の性能を達成することです。
[📰 原文はこちら](https://arxiv.org/abs/2604.22061)
---
※本記事はAI(Ollama)による自動翻訳・要約です。
BittensorManがお勧めするメーカーリスト
https://exbridge.jp/xdirect/
AI時代の技術と知識のまとめ(AI生成メディア) - AIDexx
https://exbridge.jp/aidexx/
頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。
動画の最後にお得な情報がありますので、
最後までご覧ください。