ドローンRGBオルソフォトは、UAVに搭載した可視光カメラ(RGB:Red・Green・Blue)で連続写真を撮影し、Structure from Motion(SfM)技術で正射投影画像(オルソフォト)を生成する手法です。地上分解能(GSD:Ground Sample Distance)2〜10cm、平面位置精度±10cm以内の高精細画像が得られ、ナラ枯れ・松枯れ・気象害・違法伐採等の森林被害判読に活用されます。林野庁の森林害虫被害調査では、従来の人手による現地踏査に対しオルソフォト判読は調査時間を80%以上短縮し、面積把握精度は±5%以内とされています。本稿ではRGBオルソの原理、撮影設計、被害判読の実例、自動判読AIの最新動向を整理します。
この記事の要点
- ドローンRGBオルソは地上分解能2〜10cm、平面精度±10cm以内で森林被害の面積・分布を高精度に把握。
- 1フライト30分で約30〜80haをカバー(対地高度100〜150m)、機材一式は40〜200万円規模で参入障壁が低い。
- ナラ枯れ・松枯れの自動判読AIが実用化し、被害木検出精度85〜92%(IoU 0.7以上)。
クイックサマリー:ドローンRGBオルソの主要数値
| 指標 | 数値 | 出典・備考 |
|---|---|---|
| 標準GSD(地上分解能) | 2〜10cm | 対地100〜150m |
| 平面位置精度 | ±5〜10cm | RTK使用時 |
| 高さ精度 | ±10〜30cm | SfM処理 |
| 1フライトカバー範囲 | 30〜80ha | 対地150m設定時 |
| 機材一式コスト | 40〜200万円 | DJI Phantom4〜M3E等 |
| 標準オーバーラップ | 前方80%・横60% | SfM最適値 |
| ナラ枯れ自動判読精度 | 85〜92% | 深層学習・IoU 0.7以上 |
| 画像処理時間(30ha) | 2〜6時間 | 高性能PC、SfM処理 |
| 代表ソフトウェア | Pix4D・Metashape | 業界標準 |
| ナラ枯れ被害材積(2023) | 19万m³ | 林野庁集計 |
RGBオルソの原理とSfM技術
オルソフォトは、空中写真の中心投影歪みを取り除き、地図と同じ正射投影に変換した画像です。ドローンの普及前は、有人航空機での専門撮影と高価なステレオ図化機による処理が必要でしたが、SfM(Structure from Motion)技術の発達により、汎用カメラの連続写真からも高精度オルソを生成できるようになりました。SfMはコンピュータビジョンの一手法で、複数視点からの写真の特徴点を自動マッチングし、カメラ位置と3D形状を同時に推定します。
SfM処理は、(1)特徴点検出(各画像から数万点の特徴点を抽出)、(2)特徴点マッチング(画像間で同一点を対応付け)、(3)バンドル調整(カメラ位置・姿勢・レンズ歪みを最小二乗法で推定)、(4)密点群生成(MVS:Multi-View Stereo)、(5)DSMとテクスチャマッピングによるオルソ画像生成、の5段階を経ます。標準的な30ha・対地150m撮影では300〜500枚の画像から数千万点の密点群が生成されます。
RGB単独 vs マルチスペクトル
RGB(可視光3バンド)に加え、近赤外(NIR)バンドを取得できるマルチスペクトルカメラを搭載すれば、植生指数(NDVI:Normalized Difference Vegetation Index)の算出が可能となり、健全木と被害木の判別精度が向上します。Parrot Sequoia、MicaSense RedEdge等のマルチスペクトルセンサは50〜200万円程度で、RGBオルソに対し被害判読精度が10〜15ポイント向上することが森林研究整備機構の実証で報告されています。一方、RGB単独でも色相変化(緑→黄→褐)を捉えれば、ナラ枯れ・松枯れの後期段階は十分判読可能で、コスト効率からRGB単独運用も多く採用されます。
撮影計画とパラメータ設計
ドローンRGB撮影の標準パラメータは、(1)対地高度100〜150m、(2)前方オーバーラップ80%、(3)横方向オーバーラップ60〜70%、(4)カメラ角度は鉛直下向き(Nadir)、(5)飛行速度5〜8m/sです。これにより1フライト約30分で30〜50ha、最新の長時間飛行機(DJI Mavic 3 Enterprise等で40分以上)では80ha規模をカバーできます。
GSDは対地高度・カメラ焦点距離・センササイズ・画素数で決まります。DJI Mavic 3 Enterprise(1インチセンサ・2,000万画素・焦点距離24mm相当)の場合、対地100mでGSD約2.7cm、対地150mでGSD約4.1cmが標準値です。林業の被害判読では、ナラ枯れの単木検出にGSD 5cm以下、松枯れ群状被害の境界把握にはGSD 10cm以下が推奨されます。
地上基準点(GCP)とRTK測位
絶対位置精度を確保するには、地上基準点(GCP:Ground Control Point)の配置か、機体のRTK測位機能の使用が必要です。GCP方式では、計測範囲内に5〜10箇所、既知座標の標識を配置し、SfM処理時に拘束点として使用します。GCPなしの場合、絶対位置誤差は数メートル規模になりますが、RTK搭載機(DJI Phantom 4 RTK等)ではGCPなしでも±5cm精度が達成可能です。林業現場では森林内に標識を配置するのが煩雑なため、RTK機の選択が現実的です。
森林被害判読の応用領域
RGBオルソは、森林被害の早期発見・面積把握・経年モニタリングに広く活用されています。代表的な被害判読対象は、(1)ナラ枯れ(カシノナガキクイムシ)、(2)松枯れ(マツノマダラカミキリ・マツノザイセンチュウ)、(3)気象害(風倒・雪倒・雪折)、(4)違法伐採、(5)山火事跡地、(6)獣害(シカの剥皮・食害)、の6カテゴリです。
| 被害種別 | RGBでの判読特徴 | 判読適期 | 面積把握精度 |
|---|---|---|---|
| ナラ枯れ | 夏季に葉が赤褐色化 | 7〜9月 | ±5% |
| 松枯れ | 針葉が黄変→赤褐色 | 8〜11月 | ±5〜8% |
| 風倒・雪倒 | 樹冠の倒伏・林床露出 | 直後〜1年 | ±3% |
| 違法伐採 | 伐根・切株・林床露出 | 通年 | ±2% |
| 山火事跡地 | 炭化・植生消失 | 直後〜数ヶ月 | ±2〜3% |
| 獣害(剥皮) | 樹冠衰弱・部分枯死 | 夏季〜秋 | ±10〜15% |
ナラ枯れ被害判読の事例
ナラ枯れは、カシノナガキクイムシが媒介するナラ菌の感染によりミズナラ・コナラ等が集団枯死する病害で、林野庁集計では2023年の被害材積19万m³、近年の高水準を示しています。RGBオルソでは、夏季(7〜9月)に被害木の葉が一斉に赤褐色〜橙色に変色するため、健全木の濃緑色に対する明確な色相差で判別可能です。山形県・新潟県等のナラ枯れ重篤地では、毎年8〜9月にドローンで100〜500ha規模の集中撮影を行い、被害木位置のマッピングと駆除計画策定に活用されています。
深層学習による自動判読AI
RGBオルソの判読作業は従来、専門技術者による目視判読が主体でしたが、深層学習(ディープラーニング)の進展により自動判読AIの精度が飛躍的に向上しました。U-Net、Mask R-CNN、YOLO等のセマンティックセグメンテーション・物体検出モデルにより、ナラ枯れ被害木の検出はIoU(Intersection over Union)0.7以上、F1スコア0.85〜0.92に達しています。
森林研究整備機構と新潟大学の共同研究では、新潟県のナラ枯れ被害地でMask R-CNNを訓練し、被害木検出精度Recall 92%・Precision 88%・F1=0.90を達成しました。林野庁の保護林管理事業でも自動判読AIの導入が進んでおり、目視判読と比べ作業時間を90%削減する事例が報告されています。AIモデルは、地域・季節・樹種が異なるとパフォーマンスが低下するため、各都道府県・各被害種別ごとの再訓練(ファインチューニング)が標準的な運用です。
違法伐採・気象害の即時把握
RGBオルソは、定期的な経年撮影を行うことで、違法伐採・気象害の即時把握にも活用されます。北海道では2022年の暴風被害(最大瞬間風速50m/s超)後、ドローン撮影により倒木被害面積800haを2週間以内に把握し、被害材積40万m³規模の搬出計画策定に活用されました。従来の地上調査では同規模の把握に2〜3ヶ月を要しており、復旧計画の早期策定によりサルベージ伐採(風倒木の品質劣化前の搬出)の歩留まりが大幅に向上しています。
違法伐採の検出では、月次・四半期次のドローン撮影を計画的に行い、前回画像との差分解析でha単位の伐採地を抽出します。山林の所有境界が複雑な民有林・国有林境界での監視に有効で、林野庁の保護林モニタリングでは、年2回のオルソ撮影+AI差分解析を組合せた監視体制が標準化されつつあります。
地上分解能と被害判読精度の関係
被害判読の精度は、GSD(地上分解能)と直接的に相関します。森林研究整備機構の実験では、ナラ枯れ単木の検出精度はGSD 5cmでF1=0.92、GSD 10cmでF1=0.85、GSD 20cmでF1=0.72と、GSDの粗化に伴って急速に低下することが示されています。逆にGSD 2cm以下では葉一枚レベルの解像が可能で、葉枯れ進行度(軽度・中度・重度)の判別までできるようになります。
運用とコストの実務
機材コストはエントリーレベル(DJI Mini 3 Pro等)で15〜25万円、業務レベル(DJI Mavic 3 Enterprise)で60〜80万円、専用RTK機(Phantom 4 RTK後継機)で100〜200万円規模です。これに解析ソフト(Pix4D Mapperで30〜80万円、Agisoft Metashape Professionalで20万円程度)と高性能PC(30〜50万円)を加えて、業務一式で200〜350万円が標準的な参入コストです。LiDAR比で5〜10倍安価で、参入障壁が大幅に低い点がRGBオルソの実務的優位性です。
都道府県森連・市町村・林業コンサル・森林組合での内製化が進み、2024年時点で全国数千社・組織が独自運用を行っています。1ha当たりの撮影単価は外注委託で1〜3万円、内製では1万円以下に抑えられ、年間100ha以上の撮影需要があれば3年以内の機材投資回収が一般的です。
よくある質問(FAQ)
Q1. RGBオルソとLiDARはどう使い分けますか?
RGBオルソは色情報による被害判読・林相把握に強く、コストが安価(1/5〜1/10)で参入容易です。LiDARは樹高・本数・3次元構造の把握に強く、樹冠下の地形計測も可能です。被害判読・面積把握・違法伐採検出ではRGBで十分、施業計画・路網設計・材積推定ではLiDARが必要となります。両者を組合せた複合運用がベストプラクティスです。
Q2. 撮影に最適な天候条件は?
晴天〜薄曇り、風速5m/s以下、降雨なしが理想です。強い直射日光は影が濃くなり判読精度が下がるため、薄曇りが最良条件です。早朝・夕方は影が長くなり、SfM処理での特徴点マッチング精度が低下するため、10時〜14時の太陽高度が高い時間帯が推奨されます。
Q3. 撮影面積の上限はありますか?
機体のバッテリー容量と画像処理PCの性能で決まります。1フライトで30〜80ha、1日で複数フライトを重ねて200〜500haが現実的な上限です。500ha以上では画像枚数が3,000枚を超え、SfM処理に12時間以上を要するため、PC性能とディスク容量がボトルネックとなります。
Q4. オルソ画像の活用ソフトは何が標準ですか?
SfM処理ではPix4D Mapper、Agisoft Metashape、DJI Terraが業界標準です。生成したオルソTIFFをQGIS・ArcGIS等のGISソフトで読み込み、森林簿・基盤地図情報と重ね合わせて利用するのが一般的なワークフローです。AI判読では、Esri ArcGIS Pro、Pix4Dfields、自社開発のPythonスクリプトを使用します。
Q5. オルソ画像の保存・共有方法は?
30ha・GSD 4cmのオルソTIFFは概ね5〜15GB規模になります。保存はNAS・クラウド(AWS S3等)が一般的で、共有用にはWebGISプラットフォーム(Mapbox、ArcGIS Online、独自Cloud Optimized GeoTIFF)でタイル配信する方法があります。林野庁の森林情報共有プラットフォームへの蓄積も進められています。
関連記事
- LiDAR点群解析|樹高・本数・材積の自動推定
- ドローンLiDAR|UAV搭載型の単木解析
- 衛星リモートセンシング|Sentinel-2・ALOS-3活用
- 森林GIS|基盤地図情報+森林計画図+森林簿の統合
- 林業ICT|現場端末・電子野帳・クラウド連携
- QGISの林業活用|OSSによる森林管理の低コスト化
まとめ
ドローンRGBオルソフォトは、地上分解能2〜10cm・平面精度±10cm・1フライト30〜80haという高い解析能力と、機材一式200〜350万円という参入容易性を兼ね備えた森林被害判読基盤です。ナラ枯れ19万m³・松枯れ等の病害虫被害の早期発見、風倒・違法伐採の即時把握、深層学習AIによるF1=0.85〜0.92の自動判読まで、林業現場のリモートセンシング基盤として全国普及が進んでいます。LiDARと比べて参入コストが1/5〜1/10と安価で、被害判読を主目的とする現場では第一選択の技術です。

コメント