AIによる森林被害判定|ナラ枯れ・松枯れの自動検出

AIによる森林被害判定 | 樹を木に - Forest Eight

AIによる森林被害判定は、ナラ枯れ・松枯れ等の樹木衰退を航空画像・衛星画像・UAV画像から深層学習モデルで自動検出する技術であり、人手による被害調査の数十倍の効率と空間網羅性を実現します。林野庁の被害統計(2022年度)ではナラ枯れ被害量18.9万m³、マツ材線虫病被害量28.9万m³で、両者合わせて約48万m³の被害が継続発生しています。森林研究整備機構と各都道府県研究機関による深層学習モデル開発が2018年以降本格化し、被害木検出の正答率(F値)は最新モデルで0.85〜0.92水準に達しました。本稿では教師データ整備・モデル選択(YOLO・U-Net等)・運用ワークフローの3軸でAI被害判定の到達点を整理します。

この記事の要点

  • マツ材線虫病被害量28.9万m³、ナラ枯れ被害量18.9万m³(2022年度)の両被害合計47.8万m³に対し、AI判定が人手調査を補完する形で導入が進む。
  • UAV-RGB画像+深層学習(YOLO・U-Net・Mask R-CNN)で被害木検出のF値0.85〜0.92が達成され、現場調査時間を従来比1/10〜1/30に短縮。
  • 森林研究整備機構・東北大・京大等の研究機関が教師データ集約とモデル公開を進め、2024年時点で全国20道府県で実運用または実証段階にある。
  • UAV撮影効率100ha/日、人手調査5〜10ha/日。教師データ公開枚数1万枚超、被害発生報告は42都道府県。出典:林野庁、FFPRI、森林・林業白書。
目次

クイックサマリー:AI森林被害判定の基本数値

指標 数値 出典・備考
マツ材線虫病被害量 28.9万m³ 林野庁2022年度
ナラ枯れ被害量 18.9万m³ 林野庁2022年度
マツ枯れ被害ピーク 243万m³ 1979年(過去最大)
ナラ枯れ被害ピーク 32.8万m³ 2010年
被害発生都道府県数 42都道府県 ナラ枯れ2022年度
UAV-AI判定F値 0.85〜0.92 FFPRI最新モデル2023
UAV撮影効率 100ha/日 RGBオルソ標準
人手調査効率 5〜10ha/日 徒歩・目視
AI実運用都道府県 20道府県 FFPRI調査2024
教師データ枚数(公開) 1万枚超 FFPRI共通データセット
地上分解能(GSD)標準 3〜5cm/画素 UAV高度100〜150m

マツ枯れ・ナラ枯れの構造

マツ材線虫病(マツ枯れ)は、マツノマダラカミキリが媒介するマツノザイセンチュウがマツ樹体内に侵入して通水機能を破壊する病害で、感染後1〜2ヶ月で針葉が褐変・枯死します。1900年代初頭に米国経由で侵入したとされ、1979年の243万m³をピークに対策により減少傾向にあるものの、2022年度でも28.9万m³の被害が発生しています。ナラ枯れはカシノナガキクイムシが媒介するラファエレア菌(Raffaelea quercivora)による樹病で、ミズナラ・コナラ等の大径木が選択的に被害を受け、葉が短期間で褐変する特徴があります。

マツ枯れ・ナラ枯れ被害量の推移 マツ枯れ・ナラ枯れの過去30年の被害量推移を折れ線グラフで示す マツ枯れ・ナラ枯れ被害量推移(千m³) 2,000 1,000 500 0 1990 2000 2010 2020 マツ材線虫病 ナラ枯れ マツは1990年140万m³から減少、ナラは2010年32.8万m³ピーク後減少傾向。 出典:林野庁「森林病害虫被害量統計」各年版
図1:マツ枯れ・ナラ枯れ被害量の推移(出典:林野庁「森林病害虫被害量統計」各年版)

地理的拡大と気候変動

マツ枯れは1980年代までに本州から北海道渡島まで北上、ナラ枯れも1990年代以降日本海側から急速に拡大し、2022年度では42都道府県で発生報告があります。気候変動による媒介昆虫の活動期延長と分布北上が、被害拡大の主要因の1つと考えられており、北海道・東北地方の冷涼地でも従来抑制されていた被害が顕在化しています。

マツ枯れの主要被害地域は西日本(広島・山口・福岡・大分・鹿児島等)、ナラ枯れは日本海側(新潟・福井・京都・兵庫・島根等)と東北・北海道で拡大が進行中です。被害は単なる森林資源の喪失だけでなく、保安林機能(水源涵養・土砂流出防止)の劣化、景観・観光価値の低下、生態系(広葉樹の高齢木をハビタットとする鳥類・昆虫)への影響など、多面的な社会的損失を生みます。

UAV画像取得とAI判定パイプライン

AI判定の標準的なワークフローは、(1)UAV-RGBカメラによる空中撮影、(2)構造化処理(オルソモザイク・DSM生成)、(3)深層学習モデルによる被害木検出、(4)GIS統合と被害本数集計、の4段階です。撮影解像度は地上分解能(GSD)3〜5cm/画素が標準で、UAVの飛行高度100〜150m・オーバーラップ80%・サイドラップ70%が基本パラメータとなります。1日あたり100ha前後の撮影が可能で、人手調査の10〜20倍の効率です。

AI森林被害判定のワークフロー UAV撮影からGIS出力までの被害判定処理フローを段階的に示す AI森林被害判定の処理パイプライン UAV撮影 100ha/日 オルソ生成 SfM処理 AI推論 YOLO/U-Net GIS統合 座標・本数 対策計画 伐倒駆除 RGB画像 数千枚 オルソTIFF DSM標高 被害木座標 F値0.85〜0.92 被害分布図 本数集計 処理時間:100ha・5cmGSDで撮影1日+処理半日+AI推論30分が標準値
図2:AI森林被害判定の標準処理パイプライン(出典:森林研究整備機構「森林被害遠隔判定マニュアル」2023年)

処理時間の構成

100haスケールでの全処理時間は概ね、UAV撮影1日(フライト2〜3回)、オルソ生成・SfM処理半日(GPU使用)、AI推論30分〜1時間、GIS統合と現地確認半日〜1日、合計2〜3日程度です。これに対し人手調査では同面積で2〜3週間(5人日)程度を要するため、AI判定は時間効率で5〜10倍の優位性があります。AIで一次判定→現地確認で最終判定の2段階運用が一般的で、AIの誤検出(偽陽性)を現地で精査することで、最終的な実用判定品質を担保します。

深層学習モデルの選択:YOLO・U-Net・Mask R-CNN

森林被害検出の深層学習モデルは、(1)物体検出系(YOLO・Faster R-CNN)と(2)セマンティックセグメンテーション系(U-Net・DeepLab・Mask R-CNN)の2系統に大別されます。物体検出は被害木の中心座標と本数把握に強く、セグメンテーションは被害領域の面積測定に強いため、用途で使い分けます。多くの実運用では、YOLOv5/v8で本数カウント、U-Netで面積推定の組み合わせが採用されます。

モデル系統 代表モデル 出力形式 F値範囲 適用場面
物体検出 YOLOv5/v8、Faster R-CNN バウンディングボックス 0.80〜0.92 個体木カウント
セマンティックセグメンテーション U-Net、DeepLabV3+ ピクセル分類 0.78〜0.90 被害面積推定
インスタンスセグメンテーション Mask R-CNN、YOLACT 個体マスク 0.75〜0.88 個体木境界+面積
パノプティック分割 Panoptic FPN 個体+背景 0.70〜0.85 樹種分類含む高度解析

教師データの整備

深層学習モデルの精度は教師データ(正解ラベル付き画像)の質と量で大きく決まります。森林被害判定の標準的な教師データは、UAV-RGBオルソから切り出した256×256〜1024×1024画素のタイル画像で、被害木の位置にバウンディングボックスまたはセグメンテーションマスクが付与されたものです。FFPRI共通データセット(2023年公開)では1万枚超の教師データが提供され、研究機関・自治体・コンサルタントが共通基盤として活用しています。

教師データのアノテーション(ラベル付け)作業は時間とコストを要する工程で、1枚あたり1〜5分(被害木の数に依存)が標準的です。1,000枚規模のデータセット作成には10〜30人日の作業が必要で、これがAI導入のハードルの1つです。FFPRIや産業技術総合研究所では、半自動アノテーション(既存モデルでの予測→人間の修正)ツールの開発・公開も進んでおり、教師データ整備の効率化が進行中です。

衛星画像とAIによる広域監視

UAVは局所的な高精度判定に強い一方、広域監視(県・地域単位)には衛星画像とAIの組合せが現実的です。Sentinel-2(EU、10m解像度、5日間隔の更新)、Landsat-8/9(米国、30m、16日間隔)、PlanetScope(民間、3m、毎日)、WorldView(民間、30〜50cm、要発注)等の衛星データを活用したAI判定が研究フロントです。これら衛星データは無料〜サブスクリプションで利用可能で、Google Earth Engine(GEE)でクラウド処理できます。

衛星AI判定の精度は、解像度の制約から個体木レベルの判定は困難ですが、林分単位(数ha〜数十ha)の被害密度推定は可能で、F値0.65〜0.85程度が報告されています。Sentinel-2の時系列解析(NDVI・赤エッジ反射の経時変化)と機械学習を組み合わせることで、被害発生の早期検出(被害顕在化前の異常検知)も研究されています。これらの広域監視結果を踏まえてUAV重点調査箇所を絞り込む2段階運用が、コスト・精度の両面で有効です。

その他の森林被害種:台風被害・凍害・雪害

マツ枯れ・ナラ枯れ以外にも、AI判定が活用される森林被害には、(1) 台風による倒木・枝折れ、(2) 凍害・雪害(寒冷地での林木損傷)、(3) 鳥獣害(クマ・シカ等による剥皮・食害)、(4) 火災(山火事の被害把握)、(5) 病害(スギ・ヒノキの溝腐病等)等があります。各被害種で深層学習モデルの応用が進んでいます。

台風被害の自動検出は、UAV-RGB+セグメンテーションモデル(U-Net等)で倒木・枝折れの面積推定が標準化しつつあります。凍害・雪害は冠雪の重みで枝が折損した個体木の検出に物体検出系モデルが有効です。鳥獣害は剥皮痕・食痕の局所的な特徴を捉える必要があり、研究フロントとして進行中です。火災被害(焼失面積・焼損度)は衛星マルチスペクトル+AIで、被害発生数日〜1週間以内に広域被害把握が可能となっています。

被害種 主な検出手法 F値範囲 運用ステージ
マツ材線虫病 UAV-RGB+YOLO 0.85〜0.92 20道府県で実運用
ナラ枯れ UAV-RGB+U-Net 0.83〜0.90 20道府県で実運用
台風倒木 UAV-RGB+セグメンテーション 0.80〜0.88 実証→部分運用
凍害・雪害 UAV-RGB+物体検出 0.70〜0.85 研究段階
鳥獣害(剥皮) UAV-RGB+局所特徴抽出 0.65〜0.80 研究段階
山火事被害 衛星マルチスペクトル+AI 0.85〜0.95 実運用

都道府県別の導入実績

FFPRI調査(2024年)では、全国20道府県でAI森林被害判定の実運用または実証段階にあると報告されています。先行県は北海道・宮城県・福島県・新潟県・長野県・福井県・京都府・兵庫県・島根県・広島県・大分県等で、ナラ枯れ・マツ枯れ被害が大きい地域に集中しています。県の林業試験場・環境研究センター等が中心となり、UAV撮影・教師データ整備・AIモデル運用を担当しています。

道府県 主な対象 運用ステージ 連携機関
北海道 ナラ枯れ・マツ枯れ 実運用 道立試験場・FFPRI
宮城県・福島県 マツ枯れ 実証→実運用移行 東北大学・FFPRI
新潟県・福井県 ナラ枯れ 実運用 県試験場・新潟大学
京都府・兵庫県 ナラ枯れ 実運用 京都大学・兵庫県森林研究所
島根県・広島県 マツ枯れ・ナラ枯れ 実証段階 広島大学・島根県中山間地研究センター
大分県・宮崎県 マツ枯れ 実証段階 九州大学・各県試験場

運用組織と人材育成:県・市町村・コンサル

AI森林被害判定の運用には、(1) 撮影オペレータ(UAVパイロット)、(2) 画像処理オペレータ(オルソ生成・SfM)、(3) AIエンジニア・データサイエンティスト(モデル運用)、(4) GIS技術者(被害分布図作成)、(5) 林業現場経験者(現地検証・最終判定)、の5職種が連携する体制が標準です。多くの県では、1〜2名の専門人材を試験場・林務担当部局に配置し、それ以外は外部委託(コンサルタント・大学)で補完する形が一般的です。

人材育成は、(1) FFPRI・各大学が提供する研修プログラム、(2) 林野庁スマート林業構築実践事業の研修コース、(3) 都道府県職員研修制度、(4) 民間コンサルタント主催のセミナー、で体系化されています。1人前のAI森林被害判定オペレータの育成には、UAV操縦・SfM処理・深層学習・GIS・林業現場経験を統合的に習得する必要があり、3〜5年の経験蓄積が標準的なキャリアパスです。

導入コストとROI

AI森林被害判定の導入コストは、(1) UAV機材・操縦資格(200〜500万円)、(2) GPUサーバ・処理ソフト(300〜800万円)、(3) AIモデル開発・教師データ整備(外注で500〜1,500万円、社内開発なら人件費+数年)、(4) 現地検証・運用体制(年100〜300万円)、で初期投資1,000〜2,500万円、年間運用費200〜500万円程度が標準的な水準です。

これに対するROI(投資回収)は、対象面積1,000ha以上、年次調査を毎年実施する規模で2〜4年での回収が見込まれます。人手調査では1,000haあたり50〜100人日(500〜1,000万円相当)が必要なのに対し、AIでは10〜15人日(100〜150万円相当)に圧縮されます。県・大型自治体・大規模林業事業者にとっては、明らかに費用対効果のあるシステム投資です。

マルチスペクトル・ハイパースペクトル画像の活用

RGB画像(可視光3バンド)に加え、近赤外(NIR)・赤エッジ(Red Edge)等を含むマルチスペクトル画像(4〜10バンド)、さらにハイパースペクトル画像(数十〜数百バンド)の活用で、被害判定精度を大きく向上できます。NDVI(正規化植生指数)・NDRE(赤エッジ植生指数)等の植生指数は、葉の生理的活性を直接的に反映するため、目視では分からない初期段階の被害を検出できる可能性があります。

UAVマルチスペクトルカメラは、Parrot Sequoia+、MicaSense RedEdge-MX、DJI P4 Multispectral等が代表的で、本体価格50〜200万円規模です。RGB単独に対し、被害判定F値が3〜10ポイント向上する事例が報告されており、特に被害発生初期の検出に有効です。ハイパースペクトル画像はさらに高精度ですが、機材価格(500〜2,000万円規模)と処理の複雑さから、研究機関中心の利用にとどまります。

時系列解析による早期検出

同一エリアの複数時期画像(季節・年次)を比較解析する時系列AI判定は、被害発生の早期検出に効果的です。Sentinel-2(5日間隔)、PlanetScope(毎日)、UAV定期取得(月次・季節次)の組合せで、植生指数の経時変化からの異常検知が可能となります。具体的にはLSTM(Long Short-Term Memory)・Transformer・3D-CNN等の時系列深層学習モデルが研究フロントです。

FFPRI・東北大学・京都大学の研究では、Sentinel-2時系列データ(過去5〜10年分)と機械学習を組み合わせて、被害発生の数週間前に異常を検知する手法が実証されています。早期検知ができれば、初期段階での集中駆除・隔離措置で被害拡大を最小化できる可能性があります。実用化はまだ研究段階ですが、今後5〜10年で実運用に移行する見通しです。

FAQ:AI森林被害判定

Q1. AI判定は人間より正確ですか?

F値0.85〜0.92という最新水準は、人間の調査員(経験5年以上)の精度(F値0.90〜0.95程度)に近づいていますが、完全に置き換える水準にはまだ達していません。実運用ではAIで一次判定→現地確認で最終判定の2段階運用が標準で、AIは「人手作業の効率化ツール」として位置付けられています。

Q2. AIモデルは樹種判別もできますか?

マツ・ナラ等の被害樹種の特定はある程度可能ですが、樹種そのものの判別には別の専用モデル(ハイパースペクトル+深層学習)が必要です。詳細はAI樹種マッピング記事を参照ください。被害判定と樹種判別を組み合わせた統合モデルも研究フロントとして進行中です。

Q3. ハードウェア要件は?

AI推論には GPU(NVIDIA RTX 3090/4090、A100等)搭載のサーバまたはワークステーションが標準です。1万枚規模のオルソ画像処理にはGPU 24GB以上が推奨されます。学習にはさらに大規模なクラスタ(A100×4等)が必要となるケースもあり、外注委託または研究機関との連携が現実的です。クラウド(AWS・GCP)のGPUインスタンスを利用するパターンも増加中です。

Q4. 教師データ整備のコスト削減方法は?

(1) FFPRI共通データセットの活用、(2) 半自動アノテーションツールの利用、(3) 既存モデルからの転移学習(fine-tuning)、(4) 教師データ共有プラットフォーム(オンラインリポジトリ)の活用、等が標準的な手段です。これらにより、ゼロからの開発に対し70〜90%のコスト削減が可能です。

Q5. AI判定で見落とされやすい被害は?

初期段階の被害(葉の褐変が始まる前の生理的衰退)、立木密度が極端に高い林分(被害木が他の樹冠に遮蔽される)、撮影時の光環境(日陰・曇天)が悪い場合、被害木と健全木の見分けが困難な季節(落葉期)、等で精度が低下します。これらに対する対策として、マルチスペクトル・ハイパースペクトル画像の活用、複数時期の比較解析、季節別モデルの個別学習、等が研究されています。

Q6. 小規模森林所有者でも活用できますか?

個人所有者単独での運用はコスト面で困難ですが、市町村・森林組合・コンサルタントによる広域サービスとして利用することは可能です。森林環境譲与税を活用した市町村事業として、AI森林被害判定を実施する事例が増えており、所有者は無償または低コストで自身の森林の被害情報を取得できる仕組みが整いつつあります。

Q7. AI判定の結果はどう活用されますか?

(1) 林野庁・都道府県への被害量報告、(2) 伐倒駆除(被害木の早期切除)の優先度判定、(3) 防除事業の予算要求根拠、(4) 長期的な被害動向の分析、(5) 周辺森林への波及リスク評価、等の用途に活用されます。GISベースの被害分布図として可視化し、市町村・所有者・関係機関で共有することで、迅速な対策実施と中長期計画策定が可能となります。

Q8. オープンソースのAIモデルは公開されていますか?

FFPRI・各大学・民間コンサルタントが、GitHub等にオープンソースで深層学習モデル・教師データセット・処理スクリプトを公開する事例が増えています。代表的なものはYOLOv8ベースの被害木検出モデル、U-Netベースのセグメンテーションモデル、PyTorch Lightning等のフレームワークを使った学習スクリプトです。これらを基盤に各地域の特性に応じてfine-tuningすることで、ゼロからの開発コストを大幅に削減できます。

Q9. 防除対策と連動した運用は?

AI判定で検出された被害木の位置情報は、伐倒駆除・薬剤注入等の防除対策に直接活用されます。被害木の位置を高精度GPSで取得し、現場作業員のタブレット・スマートフォンに表示することで、無駄な探索時間を削減し効率的な防除が可能となります。一部県では、ドローン薬剤散布と連動し、被害木周辺への対策薬剤散布を自動化する取り組みも始まっています。

研究フロント:基盤モデル・自己教師あり学習

2024〜2025年の研究フロントは、(1) Foundation Model(基盤モデル、画像分野のCLIP・SAM等の点群・森林版)、(2) 自己教師あり学習(教師データ不要での事前学習)、(3) 異種データ融合(光学+SAR+LiDAR)、(4) 大規模言語モデル(LLM)連携の4方向です。これらにより、教師データ整備コストを大幅削減しつつ、未学習地域・新被害種への汎化性能を向上させる可能性があります。

具体的には、Meta社のSAM(Segment Anything Model)を森林被害判定に応用し、簡単なプロンプト(クリックや矩形)だけで被害領域をセグメンテーションする実証が進んでいます。CLIPベースの画像-テキスト連携モデルでは、「ナラ枯れ被害木」「健全なミズナラ」等の自然言語プロンプトで樹木を分類するアプローチも研究されています。これらは商用化されれば、林業現場でのAI活用の参入障壁を大きく下げる可能性があります。

関連記事

国際比較:欧州・北米・東南アジアの事例

森林被害のAI判定は世界各国で同時並行的に進化しています。欧州では、ドイツの森林局(BMEL)がトウヒ等の樹皮甲虫被害(Bark Beetle)の衛星AI判定を全国規模で運用、フランス・スウェーデン・スペインも類似のシステムを構築中です。北米では、米国森林局(USDA Forest Service)が広域衛星画像(Landsat、Sentinel)と機械学習で松枯れ・樹皮甲虫被害を継続監視しています。東南アジアではマレーシア・インドネシアでパーム椰子病害のAI判定が進んでおり、技術的なクロスオーバーがあります。

共通する技術トレンドは、(1) 衛星画像(無料公開のSentinel・Landsat)とAIの組合せ、(2) 国際的な教師データセット共有(Kaggle・GitHub等)、(3) オープンソースのアルゴリズム公開(PyTorch・TensorFlow)、(4) 政府機関と研究機関の連携、です。日本のAI森林被害判定もこれらのグローバルトレンドに整合する形で進化しており、国際協調・技術移転の機会が広がっています。

まとめ

AI森林被害判定は、マツ材線虫病28.9万m³・ナラ枯れ18.9万m³・年合計47.8万m³(2022年度)の継続的被害に対する効率的な調査ツールとして、20道府県で実運用または実証段階にあります。UAV-RGB画像+深層学習(YOLO・U-Net・Mask R-CNN)でF値0.85〜0.92の精度が達成され、人手調査の5〜10倍の効率を実現しています。FFPRI共通データセット(1万枚超)の公開、衛星画像(Sentinel-2等)との連携、樹種判別モデルとの統合等、技術はさらに高度化しつつあります。市町村単位の広域運用、森林環境譲与税の活用、ROI 2〜4年での投資回収可能性等、政策・経済両面で導入加速の条件が整っており、今後5年で実運用都道府県は40以上に拡大する見通しです。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

CAPTCHA


目次