東京医科大学(学長:林 由起子/東京都新宿区)茨城医療センター整形外科 吉井 雄⼀教授、筑波⼤学 計算科学研究センター北原 格 教授は、X 線透視画像と3次元CT データの⾼精度な重ね合わせを実現しました。
X線透視装置は、整形外科手術において頻繁に使用される医療機器ですが、2次元のX線画像から患部の3次元形状を対応付けるには、医師の経験や知識に多くを頼っているのが現状です。術中に撮影するX線画像と、術前にCTスキャンで取得した3次元モデル(CTモデル)との重ね合わせができれば、医師自身が2次元画像から3次元形状を想像する作業が軽減され、手術に集中できるようになります。このような目的でX線画像とCTモデルを高精度に重ね合わせる際には、「身体の一部だけを大写しした画像(局所画像)でも機能すること」「全自動で処理できること」が不可欠です。そこで本研究では、X線画像のシーン座標を回帰する畳み込みニューラルネットワーク(CNN)を用いて、これらを実現しました。X線撮影カメラの光学中心と画像中の画素を結ぶ直線と、CTモデルとの交点で、シーン座標を定義し、その座標系で3次元点群とその観測位置(2次元座標)の対応関係を自動的に取得可能な手法を考案するとともに、これにより獲得した対応点情報と深層学習を組み合わせることで、局所画像に対しても高精度な重ね合わせに成功しました。
本技術を、骨盤のCTモデルとX線画像の両方が収録されているデータセットを用いて検証した結果、シミュレーションX線画像で3.79mm(標準偏差1.67mm)、実写X線画像で9.65mm(標準偏差4.07mm)の誤差で、X線画像とCTモデルの重ね合わせを達成しました。
■プレスリリースはこちら>>