原題
Large language model-augmented learning for auto-delineation of treatment targets in head-and-neck cancer radiotherapy.
**背景:**放射線治療における正確な手動標的描写は不可欠であるが、労働集約的であり、変動する。本研究では、自動化された標的体積描写を改善することを目的とした新しい視覚言語モデルであるRadformerを紹介する。
**方法:**Radformerは、階層的な視覚トランスフォーマーと大規模な言語モデルを組み合わせて、臨床テキストと医療画像を統合する。視覚的および言語的特徴の組み合わせを強化するための視覚言語注意モジュール(VLAM)を特徴とする。このモデルは、Dice類似係数(DSC)などの指標を用いて、2,985人の頭部および頚部癌患者のデータセットで評価された。
**結果:**Radformerは既存のモデルよりも優れており、平均DSCは0.76対0.66を達成し、HD95値が低く、セグメンテーションの改善を示した。
**結論:**RadformerはRT標的の描写の精度を高め、治療計画におけるAI支援の自動化を促進する。
Journal: Radiother Oncol (CiteScore 2022: 10.5)
DOI: 10.1016/j.radonc.2025.110740
PMID: 39855601
コメント