ドローンRGBオルソ|森林被害判読への活用

ドローンRGBオルソ | 森と所有 - Forest Eight

ドローンRGBオルソフォトは、UAVに搭載した可視光カメラ(RGB:Red・Green・Blue)で連続写真を撮影し、Structure from Motion(SfM)技術で正射投影画像(オルソフォト)を生成する手法です。地上分解能(GSD:Ground Sample Distance)2〜10cm、平面位置精度±10cm以内の高精細画像が得られ、ナラ枯れ・松枯れ・気象害・違法伐採等の森林被害判読に活用されます。林野庁の森林害虫被害調査では、従来の人手による現地踏査に対しオルソフォト判読は調査時間を80%以上短縮し、面積把握精度は±5%以内とされています。本稿ではRGBオルソの原理、撮影設計、被害判読の実例、自動判読AIの最新動向を整理します。

この記事の要点

  • ドローンRGBオルソは地上分解能2〜10cm、平面精度±10cm以内で森林被害の面積・分布を高精度に把握。
  • 1フライト30分で約30〜80haをカバー(対地高度100〜150m)、機材一式は40〜200万円規模で参入障壁が低い。
  • ナラ枯れ・松枯れの自動判読AIが実用化し、被害木検出精度85〜92%(IoU 0.7以上)。
目次

クイックサマリー:ドローンRGBオルソの主要数値

指標 数値 出典・備考
標準GSD(地上分解能) 2〜10cm 対地100〜150m
平面位置精度 ±5〜10cm RTK使用時
高さ精度 ±10〜30cm SfM処理
1フライトカバー範囲 30〜80ha 対地150m設定時
機材一式コスト 40〜200万円 DJI Phantom4〜M3E等
標準オーバーラップ 前方80%・横60% SfM最適値
ナラ枯れ自動判読精度 85〜92% 深層学習・IoU 0.7以上
画像処理時間(30ha) 2〜6時間 高性能PC、SfM処理
代表ソフトウェア Pix4D・Metashape 業界標準
ナラ枯れ被害材積(2023) 19万m³ 林野庁集計

RGBオルソの原理とSfM技術

オルソフォトは、空中写真の中心投影歪みを取り除き、地図と同じ正射投影に変換した画像です。ドローンの普及前は、有人航空機での専門撮影と高価なステレオ図化機による処理が必要でしたが、SfM(Structure from Motion)技術の発達により、汎用カメラの連続写真からも高精度オルソを生成できるようになりました。SfMはコンピュータビジョンの一手法で、複数視点からの写真の特徴点を自動マッチングし、カメラ位置と3D形状を同時に推定します。

SfMによるオルソフォト生成プロセス 特徴点マッチングからオルソ画像生成までの5段階処理を示すフロー図 SfM処理フローとオルソフォト生成 1. 写真撮影 200〜500枚 2. 特徴点抽出 SIFT・ORB 3. バンドル調整 カメラ位置推定 4. 密点群生成 数千万点規模 5. オルソ生成 DSM+テクスチャ 主要アウトプット(4プロダクト) ・オルソフォト(GSD 2〜10cm、TIFF/JPEG) ・DSM(数値表面モデル、樹冠上面) ・密点群(XYZ+RGB、LAS/LAZ) ・3Dメッシュモデル(OBJ/FBX) ・等高線・コンタアマップ(DXF) ・体積計算(堆積量・伐採量)
図1:SfMによるオルソフォト生成の5段階処理(出典:Pix4D/Agisoft Metashape技術仕様)

SfM処理は、(1)特徴点検出(各画像から数万点の特徴点を抽出)、(2)特徴点マッチング(画像間で同一点を対応付け)、(3)バンドル調整(カメラ位置・姿勢・レンズ歪みを最小二乗法で推定)、(4)密点群生成(MVS:Multi-View Stereo)、(5)DSMとテクスチャマッピングによるオルソ画像生成、の5段階を経ます。標準的な30ha・対地150m撮影では300〜500枚の画像から数千万点の密点群が生成されます。

RGB単独 vs マルチスペクトル

RGB(可視光3バンド)に加え、近赤外(NIR)バンドを取得できるマルチスペクトルカメラを搭載すれば、植生指数(NDVI:Normalized Difference Vegetation Index)の算出が可能となり、健全木と被害木の判別精度が向上します。Parrot Sequoia、MicaSense RedEdge等のマルチスペクトルセンサは50〜200万円程度で、RGBオルソに対し被害判読精度が10〜15ポイント向上することが森林研究整備機構の実証で報告されています。一方、RGB単独でも色相変化(緑→黄→褐)を捉えれば、ナラ枯れ・松枯れの後期段階は十分判読可能で、コスト効率からRGB単独運用も多く採用されます。

撮影計画とパラメータ設計

ドローンRGB撮影の標準パラメータは、(1)対地高度100〜150m、(2)前方オーバーラップ80%、(3)横方向オーバーラップ60〜70%、(4)カメラ角度は鉛直下向き(Nadir)、(5)飛行速度5〜8m/sです。これにより1フライト約30分で30〜50ha、最新の長時間飛行機(DJI Mavic 3 Enterprise等で40分以上)では80ha規模をカバーできます。

RGB撮影設計とGSDの関係 対地高度・カメラ画素数・センササイズからGSDを算出する図解 対地高度とGSD(地上分解能)の関係 10 7 5 3 1 GSD(cm) 50m 100m 150m 200m 300m 対地高度 1.4cm 2.7cm 4.1cm 5.5cm 8.2cm 林業推奨設定 対地150m / GSD 4cm 30ha/フライト
図2:対地高度とGSDの関係(DJI Mavic 3 Enterprise・1インチセンサ20Mピクセル基準)

GSDは対地高度・カメラ焦点距離・センササイズ・画素数で決まります。DJI Mavic 3 Enterprise(1インチセンサ・2,000万画素・焦点距離24mm相当)の場合、対地100mでGSD約2.7cm、対地150mでGSD約4.1cmが標準値です。林業の被害判読では、ナラ枯れの単木検出にGSD 5cm以下、松枯れ群状被害の境界把握にはGSD 10cm以下が推奨されます。

地上基準点(GCP)とRTK測位

絶対位置精度を確保するには、地上基準点(GCP:Ground Control Point)の配置か、機体のRTK測位機能の使用が必要です。GCP方式では、計測範囲内に5〜10箇所、既知座標の標識を配置し、SfM処理時に拘束点として使用します。GCPなしの場合、絶対位置誤差は数メートル規模になりますが、RTK搭載機(DJI Phantom 4 RTK等)ではGCPなしでも±5cm精度が達成可能です。林業現場では森林内に標識を配置するのが煩雑なため、RTK機の選択が現実的です。

森林被害判読の応用領域

RGBオルソは、森林被害の早期発見・面積把握・経年モニタリングに広く活用されています。代表的な被害判読対象は、(1)ナラ枯れ(カシノナガキクイムシ)、(2)松枯れ(マツノマダラカミキリ・マツノザイセンチュウ)、(3)気象害(風倒・雪倒・雪折)、(4)違法伐採、(5)山火事跡地、(6)獣害(シカの剥皮・食害)、の6カテゴリです。

被害種別 RGBでの判読特徴 判読適期 面積把握精度
ナラ枯れ 夏季に葉が赤褐色化 7〜9月 ±5%
松枯れ 針葉が黄変→赤褐色 8〜11月 ±5〜8%
風倒・雪倒 樹冠の倒伏・林床露出 直後〜1年 ±3%
違法伐採 伐根・切株・林床露出 通年 ±2%
山火事跡地 炭化・植生消失 直後〜数ヶ月 ±2〜3%
獣害(剥皮) 樹冠衰弱・部分枯死 夏季〜秋 ±10〜15%

ナラ枯れ被害判読の事例

ナラ枯れは、カシノナガキクイムシが媒介するナラ菌の感染によりミズナラ・コナラ等が集団枯死する病害で、林野庁集計では2023年の被害材積19万m³、近年の高水準を示しています。RGBオルソでは、夏季(7〜9月)に被害木の葉が一斉に赤褐色〜橙色に変色するため、健全木の濃緑色に対する明確な色相差で判別可能です。山形県・新潟県等のナラ枯れ重篤地では、毎年8〜9月にドローンで100〜500ha規模の集中撮影を行い、被害木位置のマッピングと駆除計画策定に活用されています。

ナラ枯れ・松枯れ被害の判読サイクル 年間スケジュールで被害発生・進展・判読適期・防除作業のタイミングを示す ナラ枯れ・松枯れ被害の判読・防除サイクル(年間) 4月 6月 8月 10月 12月 2月 病害発生・進展 媒介虫の活動・感染拡大(5〜8月) RGBオルソ撮影 最適撮影期(7〜10月) 被害判読・解析 AI/目視判読(8〜11月) 伐倒・薫蒸防除 防除作業(11〜3月) 経年比較・効果検証 年次比較(4〜5月)
図3:ナラ枯れ・松枯れの年間サイクルと判読・防除タイミング

深層学習による自動判読AI

RGBオルソの判読作業は従来、専門技術者による目視判読が主体でしたが、深層学習(ディープラーニング)の進展により自動判読AIの精度が飛躍的に向上しました。U-Net、Mask R-CNN、YOLO等のセマンティックセグメンテーション・物体検出モデルにより、ナラ枯れ被害木の検出はIoU(Intersection over Union)0.7以上、F1スコア0.85〜0.92に達しています。

森林研究整備機構と新潟大学の共同研究では、新潟県のナラ枯れ被害地でMask R-CNNを訓練し、被害木検出精度Recall 92%・Precision 88%・F1=0.90を達成しました。林野庁の保護林管理事業でも自動判読AIの導入が進んでおり、目視判読と比べ作業時間を90%削減する事例が報告されています。AIモデルは、地域・季節・樹種が異なるとパフォーマンスが低下するため、各都道府県・各被害種別ごとの再訓練(ファインチューニング)が標準的な運用です。

違法伐採・気象害の即時把握

RGBオルソは、定期的な経年撮影を行うことで、違法伐採・気象害の即時把握にも活用されます。北海道では2022年の暴風被害(最大瞬間風速50m/s超)後、ドローン撮影により倒木被害面積800haを2週間以内に把握し、被害材積40万m³規模の搬出計画策定に活用されました。従来の地上調査では同規模の把握に2〜3ヶ月を要しており、復旧計画の早期策定によりサルベージ伐採(風倒木の品質劣化前の搬出)の歩留まりが大幅に向上しています。

違法伐採の検出では、月次・四半期次のドローン撮影を計画的に行い、前回画像との差分解析でha単位の伐採地を抽出します。山林の所有境界が複雑な民有林・国有林境界での監視に有効で、林野庁の保護林モニタリングでは、年2回のオルソ撮影+AI差分解析を組合せた監視体制が標準化されつつあります。

地上分解能と被害判読精度の関係

被害判読の精度は、GSD(地上分解能)と直接的に相関します。森林研究整備機構の実験では、ナラ枯れ単木の検出精度はGSD 5cmでF1=0.92、GSD 10cmでF1=0.85、GSD 20cmでF1=0.72と、GSDの粗化に伴って急速に低下することが示されています。逆にGSD 2cm以下では葉一枚レベルの解像が可能で、葉枯れ進行度(軽度・中度・重度)の判別までできるようになります。

GSDと被害判読精度の関係 地上分解能の細密度ごとの判読可能内容と精度水準 GSDと判読対象・精度の関係 GSD 2cm以下(対地50m以下) 葉枯れ進行度の判別、樹皮病斑、開花状況、針葉の葉色変化 F1=0.95+ GSD 2〜5cm(対地50〜120m) 単木被害判読、樹冠形状抽出、リアルタイム被害早期発見 F1=0.90 GSD 5〜10cm(対地120〜250m) 群状被害把握、伐採跡地検出、林相区分、植生変化追跡 F1=0.85 GSD 10〜30cm(衛星画像レベル) 大規模被害区域、林相変化、年次トレンド把握(広域監視向け) F1=0.70
図4:GSDと判読対象・精度の関係(出典:森林研究整備機構ナラ枯れ実証データ)

運用とコストの実務

機材コストはエントリーレベル(DJI Mini 3 Pro等)で15〜25万円、業務レベル(DJI Mavic 3 Enterprise)で60〜80万円、専用RTK機(Phantom 4 RTK後継機)で100〜200万円規模です。これに解析ソフト(Pix4D Mapperで30〜80万円、Agisoft Metashape Professionalで20万円程度)と高性能PC(30〜50万円)を加えて、業務一式で200〜350万円が標準的な参入コストです。LiDAR比で5〜10倍安価で、参入障壁が大幅に低い点がRGBオルソの実務的優位性です。

都道府県森連・市町村・林業コンサル・森林組合での内製化が進み、2024年時点で全国数千社・組織が独自運用を行っています。1ha当たりの撮影単価は外注委託で1〜3万円、内製では1万円以下に抑えられ、年間100ha以上の撮影需要があれば3年以内の機材投資回収が一般的です。

よくある質問(FAQ)

Q1. RGBオルソとLiDARはどう使い分けますか?

RGBオルソは色情報による被害判読・林相把握に強く、コストが安価(1/5〜1/10)で参入容易です。LiDARは樹高・本数・3次元構造の把握に強く、樹冠下の地形計測も可能です。被害判読・面積把握・違法伐採検出ではRGBで十分、施業計画・路網設計・材積推定ではLiDARが必要となります。両者を組合せた複合運用がベストプラクティスです。

Q2. 撮影に最適な天候条件は?

晴天〜薄曇り、風速5m/s以下、降雨なしが理想です。強い直射日光は影が濃くなり判読精度が下がるため、薄曇りが最良条件です。早朝・夕方は影が長くなり、SfM処理での特徴点マッチング精度が低下するため、10時〜14時の太陽高度が高い時間帯が推奨されます。

Q3. 撮影面積の上限はありますか?

機体のバッテリー容量と画像処理PCの性能で決まります。1フライトで30〜80ha、1日で複数フライトを重ねて200〜500haが現実的な上限です。500ha以上では画像枚数が3,000枚を超え、SfM処理に12時間以上を要するため、PC性能とディスク容量がボトルネックとなります。

Q4. オルソ画像の活用ソフトは何が標準ですか?

SfM処理ではPix4D Mapper、Agisoft Metashape、DJI Terraが業界標準です。生成したオルソTIFFをQGIS・ArcGIS等のGISソフトで読み込み、森林簿・基盤地図情報と重ね合わせて利用するのが一般的なワークフローです。AI判読では、Esri ArcGIS Pro、Pix4Dfields、自社開発のPythonスクリプトを使用します。

Q5. オルソ画像の保存・共有方法は?

30ha・GSD 4cmのオルソTIFFは概ね5〜15GB規模になります。保存はNAS・クラウド(AWS S3等)が一般的で、共有用にはWebGISプラットフォーム(Mapbox、ArcGIS Online、独自Cloud Optimized GeoTIFF)でタイル配信する方法があります。林野庁の森林情報共有プラットフォームへの蓄積も進められています。

関連記事

まとめ

ドローンRGBオルソフォトは、地上分解能2〜10cm・平面精度±10cm・1フライト30〜80haという高い解析能力と、機材一式200〜350万円という参入容易性を兼ね備えた森林被害判読基盤です。ナラ枯れ19万m³・松枯れ等の病害虫被害の早期発見、風倒・違法伐採の即時把握、深層学習AIによるF1=0.85〜0.92の自動判読まで、林業現場のリモートセンシング基盤として全国普及が進んでいます。LiDARと比べて参入コストが1/5〜1/10と安価で、被害判読を主目的とする現場では第一選択の技術です。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

CAPTCHA


目次