YOLOv8 是一款高效能的物件偵測模型,適合用於植物識別,原因如下:
1.高速與高準確度:可即時偵測植物種類、葉片、花朵等,適用於農業監測與研究。
2.適應多種環境:能處理不同大小的物件,在戶外或光線變化下仍保持良好辨識能力。
3.輕量化與易部署:可運行於手機、無人機等設備,便於實地應用。
4.支援多種影像分析:除了物件偵測,還能用於分類與語義分割,提供更細緻的植物資訊。
5.易於訓練與擴充:可透過遷移學習提升辨識準確度,適應不同植物數據集。 YOLOv8 的高效與靈活性,使其成為植物辨識的理想解決方案!
在現代物件偵測模型的架構中,骨幹(Backbone)扮演著至關重要的角色,它就像人類視覺系統中的「初步觀察」階段,負責從輸入圖像中提取基礎特徵。常見的Backbone結構如CSPDarknet(Cross Stage Partial Darknet),是一種高效且經過優化的卷積神經網路(CNN),其設計核心在於減少計算負擔的同時,提升特徵學習的能力。CSPDarknet的層次結構相當精巧,由多個卷積層(Convolution)和殘差塊(Residual Blocks)組成,這些模組不僅能有效捕捉圖像的局部與全局特徵,還能確保資訊在網路中的流動更加順暢,避免梯度消失或爆炸的問題,從而提升模型的穩定性與表現。
接著,頸部(Neck)模組負責進一步強化Backbone提取的特徵,並進行多尺度特徵融合,使模型能夠更靈活地偵測不同大小的物件。常見的Neck結構包括FPN(Feature Pyramid Network)和PANet(Path Aggregation Network)。FPN採用「自上而下」的特徵傳遞方式,將高階語義資訊(如物體的形狀、類別)與低階細節特徵(如邊緣、紋理)進行結合,使模型在處理不同解析度的物件時更具適應性。而PANet則在此基礎上進一步優化,引入額外的資訊傳遞路徑,強化特徵金字塔的整合能力,特別是在小型物件的偵測上,PANet能顯著提升準確率,避免細節資訊在網路傳遞過程中被稀釋或遺失。
最後,檢測頭(Detection Head)是整個模型的最終決策階段,它根據Neck提供的豐富特徵,執行具體的物件偵測任務,輸出目標的類別(Class)、位置(Bounding Box)以及置信度(Confidence Score)。Detection Head通常具備多層級的輸出設計,以適應不同尺寸的物件偵測需求,例如在植物辨識中,它需要精準捕捉細微的葉片或花朵;在自動駕駛場景中,則需快速識別遠近不同的車輛與行人;而在監控系統中,可能需同時處理高解析度畫面中的多個小型目標。這種靈活且強大的架構,使得現代物件偵測模型能夠廣泛應用於各種複雜的現實場景,並持續推動電腦視覺技術的進步。
(參照圖4-1)
圖4-1
YOLOv3: 雖然是經典版本,但速度和精度已無法滿足現代需求,特別是在小物體檢測上表現較弱。
YOLOv4: 在 Darknet 框架下運行,精度和速度有提升,但部署複雜且缺乏多任務支持,與 YOLOv8 的易用性和靈活性差距明顯。
YOLOv5: 是 YOLOv8 的前身,性能已非常優秀,但 YOLOv8 在架構上進一步優化(如無錨點頭和更高效的特徵提取),精度和速度均有提升。
YOLOv7: 由不同團隊開發,專注於高精度,但模型複雜度和計算成本較高,對於輕量級照片辨識應用不如 YOLOv8 實用。
圖4-2
每種植物202張圖片的JPG檔以及框選對應的TXT檔。
(參照圖4-2)
每種植物50張圖片的JPG檔以及框選對應的TXT檔。
(參照圖4-2)
圖片測試總數 :1950張
框的數目 :4703個
Box(P 準確率 : 模型預測出來的結果中,有0.782%是與我們框的是相符的。他框的比較少但都是對的。
R 召回率 : 有0.473%正確的植物有被框出來。框的多,但不是所有框的都跟我們一樣,可能有我們當初沒有框到的部分。
mAP50 : 模型「偵測」準確度(主力指標)> 0.5 就算正確
(參照圖4-3)
圖4-3
測試結果顯示,七種植物達百分之百,其餘大部分植物的準確率都達到八成以 上,少數植物的準確率則低於八成,例如金露花(0.55)、月橘(0.4)、紅龍草 (0.712)、中國繡球(0.72)、黃花夾竹桃(0.658)。
(參照圖4-4)
圖4-4