Original Articles

Journal of Bio-Environment Control. 31 October 2022. 270-278
https://doi.org/10.12791/KSBEC.2022.31.4.270

ABSTRACT


MAIN

  • 서 론

  • 재료 및 방법

  •   1. 시험재료 및 영상 데이터 취득

  •   2. 복숭아 과실 품질 조사

  •   3. 데이터 전처리 및 데이터 증강

  •   4. 테스트 CNN 모델

  •   5. 시험환경 및 모델 성능평가

  •   6. 복숭아 숙도 판별용 지표에 대한 모델 성능 평가

  • 결과 및 고찰

  •   1. 복숭아 ‘미황’ 과실의 성숙기간 중 숙도 판별용 지표의 변화

  •   2. 수확지표 경도를 이용한 합성곱 신경망 적용 결과 분석

  •   3. 수확지표 색도 Hue와 a*값을 이용한 합성곱 신경망 적용 결과 분석

  •   4. VGG16과 InceptionV3 모델의 성능비교

서 론

현재 농업 현장의 큰 문제점으로 지적되는 고령화와 농업 생산 인력 부족 현상은 안정적인 원예작물 생산의 큰 걸림돌이 되고 있다. 이를 해결하기 위한 다양한 형태의 실증 연구들이 진행 중이며, 그 가운데 디지털 영상기술과 딥러닝 기법을 활용한 자동화 연구가 세계 각국에서 활발히 진행 중이다. 이러한 스마트 농업은 빅데이터의 축적과 더불어 RGB 영상, 다분광 영상, 초분광 영상에 대한 다양한 영상처리 기술의 적용과 함께 기계학습, 딥러닝 기반의 무인화, 자동화를 위한 시설 및 노지 작형의 재배관리, 로봇을 활용한 수확, 저장 기간 중 손실을 최소화하기 위한 지능형 저장관리 등 농업 전반에 적용 중이다(Saleem 등, 2021; Gong 등, 2022; Stasenko 등, 2021; Wang 등, 2022).

합성곱 신경망(Convolutional neural network, CNN)의 기본적인 구조는 컨볼루션 레이어(convolution layer)와 풀링 레이어(pooling layer), 풀리 커넥티드 레이어(fully connected layer)로 구성되어 있다(LeCun 등, 1989). 컨볼루션 레이어와 풀링 레이어는 입력된 이미지 데이터에서 특징을 추출하는 레이어고, 풀리 커넥티드 레이어는 추출된 특징들을 이용하여 분류하는 레이어이다. 컨볼루션 레이어는 정의된 커널사이즈의 필터를 cross-correlation 연산을 입력 이미지에 적용해서 이미지의 특징들을 추출하고, 풀링 레이어는 입력 이미지의 크기를 줄여줌과 동시에 특징값을 추출한다. 이러한 역할을 가진 컨볼루션과 풀링 레이어들이 반복된 형태로 네트워크는 구성되며, 입력 이미지는 레이어를 지나면서 컨볼루션과 풀링 연산이 적용되며 강한 특징들로 구성된 특징 맵(feature Map)을 추출해낸다. 각각의 특징맵의 사이즈는 전 단계의 레이어에서 적용된 커널사이즈에 따라 결정된다. 분류 단계인 풀리 커넥티드 레이어는 MLP라고 불리우며, 각각 레이어에 속한 노드들은 서로 연결되어 있으며, 가장 많은 파라미터와 연산량을 가진다. 이와 같은 형태로 구성되는 CNN은 마지막 레이어부터 초기 레이어까지 역전파(back propagation)하며 학습률에 따라 오차를 줄여주기 위해 각 레이어의 파라미터를 학습시킨다(Lim 등, 2017).

최근 국내에서는 합성곱 신경망을 이용하여 장미 잎, 토마토 잎, 사과 잎 병충해 분류(Ham과 Cho, 2020; Park 등, 2020; Kim과 Choi, 2020), 파프리카 생체중 예측(Moon 등, 2020), 사과, 오이의 품질 분류(Jeong 등, 2018; Kim 등, 2019), 토마토, 사과 생육단계 판별(Seo 등, 2021; Bang 등, 2022)에 대한 연구 결과가 보고되었다. 합성곱 신경망 분류기술은 기존의 머신러닝 기술과 비교하여 우수한 성능과 편리함으로 다양한 이미지 분류모델 개발에 활용되고 있다(Park 등, 2020).

노지 재배과수에 대한 딥러닝 기술과 영상처리 기술은 시작 단계에 있으며 로봇을 활용한 기계 수확과 숙기 판단에 대한 연구는 미미한 실정이다. 국내의 기계 수확을 위한 연구 단계는 과실 인식 등 기초 기술 개발 단계이며, 국내 과원에 적합한 수확 로봇 개발을 위해서는 수확기에 도달한 과실의 숙기 판정에 대한 연구가 선행 되어야 한다. 해외의 경우 RGB, Thermal, Depth, Vis/NIR 초분광영상 등을 이용해 오일추출용 팜 과실(Silalahi 등, 2016), 블루베리(Tan 등, 2018), 바나나(Mazen과 Nashat, 2019), 망고(Bhole과 Kumar, 2020), 파파야(Behera 등, 2021), 딸기(Li 등, 2022)의 숙도 판정에 효과적인 분석 기법들을 연구하고 있지만, 국내에서 노지 과수 작목에 대한 연구는 거의 없는 실정이다.

따라서, 본 연구의 목적은 노지 재배 복숭아 과실의 칼러 영상을 이용하여 복숭아 과실의 숙도를 분류하고자 ‘미황’ 과실의 성숙도에 대한 기준을 제안하고 이를 토대로 과실의 숙도 판정용 알고리즘 개발을 위한 기초 자료로 활용하고자 수행하였다.

재료 및 방법

1. 시험재료 및 영상 데이터 취득

본 연구의 시험재료는 경상남도 진주시 문산면 소재 과원에서 재배 중인 무봉지 재배 복숭아 ‘미황’을 이용하였다. 복숭아 과실의 수확은 2021년 6월 14, 16, 21, 23, 28일에 각각 36개의 건전 과실을 수확하였다. 딥러닝 알고리즘에 사용될 이미지 취득은 180개의 수확 과실을 대상으로 5가지 서로 다른 방향에서 복숭아 과실의 영상을 취득하였다. 이미지 취득은 디지털카메라(Canon IXY Digital 220 IS, Kyoto, Canon Inc., Japan)를 이용하여 총 900개의 칼러 영상을 취득하였고(Fig. 1), 숙도 판정용 알고리즘 개발을 위하여 730개는 training data와 validation data로 사용하였고(8:2), 170개는 test data로 사용하였다.

https://static.apub.kr/journalsite/sites/phpf/2022-031-04/N0090310402/images/phpf_31_04_02_F1.jpg
Fig. 1.

The sample image of ‘Mihwang’ peach using the CNN model development.

2. 복숭아 과실 품질 조사

복숭아 과실의 적숙기 판정을 위한 품질조사는 5회에 걸쳐 과중, 가용성 고형물 함량, 산함량, 색도, 경도를 측정하였다. 복숭아 과실의 과중은 전자저울(PB-30, Korea, CAS)을 이용하여 측정하였다. 가용성 고형물 함량은 과실의 즙을 낸 후 휴대용 당도계(Pocket Refractometer PAL-1, Atago, Japan)를 이용하여 측정하였고, 산함량은 과즙 1mL을 취하여 증류수 75mL과 섞은 뒤 pH 8.3이 될 때까지 0.1N NaOH로 적정하여 말릭산으로 환산하였다. 복숭아 과피의 색도는 과실의 봉합선을 기준으로 적도면 좌우를 색차계(Minolta CR-200, Osaka, Japan)를 이용하여 L*, a*, b*, Hue 값을 측정하였다. 복숭아 과실의 경도는 8mm probe를 장착한 RHED TEX SD-700(Sun Scientific Inc., Tokyo, Japan)를 사용하여 깊이 5mm로 측정 후 침투압 경도를 N으로 표기하였다.

3. 데이터 전처리 및 데이터 증강

모델 개발을 위한 training 단계에서는 모든 매개 변수를 학습시키기 위해 training 이미지의 큰 데이터 집합이 필요하며, 그렇지 않으면 CNN이 적절하게 training되지 않고 오버 피팅의 위험을 가질 수 있어 데이터 증강을 실시하였다. 본 연구에서는 training 데이터 세트를 회전, 줌, 수평-flip을 사용하여 37,056개의 이미지를 생성하여 학습에 이용하였다.

4. 테스트 CNN 모델

본 연구에서는 사전 학습(pre-trained model) CNN 모델들 중에서 image 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두 종류의 모델을 사용하는 전이 학습(transfer learning)으로 복숭아 숙도 판정용 지표를 이용하여 이미지의 숙도 분류에 대한 성능을 측정하였다.

5. 시험환경 및 모델 성능평가

본 실험은 i7-11700K 3.60GHz, GPU RTX 3070, 16GByte 메모리로 구성된 데스크탑에서 진행하였으며 사용된 운영체제는 Windows 10을 사용하였다. 사용된 프로그램 언어, 라이브러리는 Pyton 3.8.11, Tensorflow 2.6.0, Keras 2.6.0 등을 사용하였다.

위의 신경망들을 학습시키기 위해 사용자가 변경해야 하는 하이퍼 파라미터를 설정해 주는데 완벽한 최적값이 없기 때문에 사용자가 실험에 의해 최적값을 찾아내어야 한다. 보통 배치 크기(batch size)와 학습률(learning rate)을 조정하는데, 배치 크기는 한 학습할 때 한 번에 처리하는 이미지의 개수를 말하며 학습률은 보폭이라고도 불리며 적절한 학습 속도를 선택해야 하는데 본 연구에서는 ‘1e-6’를 선택하였다. 미성숙(immature), 성숙(mature), 과성숙(over mature) 3가지로 분류하기 위해 오차 함수로는 categorical cross entropy 오차 함수를 사용하였으며 최적화 기법으로 아담최적화(Adam Optimizer)를 사용하였다(Kingma와 Ba, 2015).

각 클래스의 평가 결과는 softmax 함수를 이용해 나타내었다. 구성된 네트워크 모델의 학습은 각 클래스별 training와 validation data로 분리된 이미지를 사용하였고 하이퍼 파라미터는 batch size는 32, epoch은 1000으로 조정하였다.

6. 복숭아 숙도 판별용 지표에 대한 모델 성능 평가

최종적으로 두 가지 모델을 학습시킨 후 test data에 대해 예측한 성능 결과이다. 성능 지표로는 일반적으로 분류모델에서 사용하는 accuracy(정확도), precision(정밀도), recall(재현율), F1(정밀도와 재현율을 결합한 지표)로 측정하였다. 정확도는 실제 데이터에 예측 데이터가 얼마나 같은지를 판단하는 지표이다(Euqation (1)-(4); Li 등, 2022).

(1)
Accuracy=TP+TNTP+TN+FP+FN

(TP; true positive, TN; true negative, FP; false positive, FN; false negative)

정확도라는 것이 모델의 예측 성능을 나타내는 매우 직관적인 평가 지표이긴 하지만, 본 연구처럼 분류한 데이터 불균형이 심한 경우 이 지표에 대한 신뢰성이 낮아지게 된다. 따라서 정확도만 사용하기보다 아래의 분류 성능 지표와 함께 사용하였다.

정밀도는 예측 값을 positive로 한 것 중에 예측 값과 실제 값이 positive로 일치한 데이터의 비율을 의미한다.

재현율은 실제 값이 positive인 것 중에 예측과 실제 값이 positive로 일치한 데이터의 비율을 의미한다.

(2)
Precision=TPTP+FP
(3)
Recall=TPFN+TP

F1은 정밀도와 재현율을 결합한 지표로, 정밀도와 재현율이 어느 한쪽으로 치우치지 않을 때 상대적으로 높은 값을 가진다.

(4)
F1=2×Precision×RecallPrecision+Recall

결과 및 고찰

1. 복숭아 ‘미황’ 과실의 성숙기간 중 숙도 판별용 지표의 변화

본 연구에서는 복숭아 과원에서 수확용 로봇에 적용될 수확 판정용 알고리즘 개발을 위해 무봉지 재배 복숭아를 대상으로 실험을 진행하였다. 복숭아 ‘미황’ 과실을 대상으로 만개 후 75일부터 89까지의 과실 성숙 기간 중 과중, 가용성 고형물 함량, 산함량, 경도, 색도 L*, a*, b*, Hue 값을 분석하여 과실의 내·외적인 성숙도 변화를 조사하였다(Fig. 2).

https://static.apub.kr/journalsite/sites/phpf/2022-031-04/N0090310402/images/phpf_31_04_02_F2.jpg
Fig. 2.

Change of fruit maturity index; fruit weight (A), soluble solids content (B), titratable acidity (C), firmness (D), L* value (E), a* value (F), b* value (G), Hue value (H) of ‘Mihwang’ peach development.

과중과 색도 a*값은 생육기간이 지날수록 지속적으로 증가하는 경향을 보였으며, 산함량, 과육 경도, Hue값은 지속적으로 감소하는 경향을 보였다. 색도 L*값, 색도 b*값은 서서히 증가 후 감소하는 경향을 보여 숙도 판정용 지표로 적합하지 않는 것으로 조사되었다. 가용성 고형물 함량은 과실 성숙과 함께 축적되는 것으로 알려져있지만, 기상조건 특히, 강우일 후의 토양 내 수분 증대에 따른 과실의 고형물 함량 저하 현상을 보여 숙도 판정용 지표로 사용하기에 부적합한 것으로 조사되었다. 황도 품종인 ‘장호원황도’ 과실에서도 성숙 개시기에서 과숙단계로 이행되는 과정에서 일관성 있는 품질 지표의 변화는 색도 a*값의 지속적인 증가와 산함량의 감소로 보고되었다(Chun과 Kim, 2013).

따라서 본 연구에서는 복숭아 ‘미황’ 과실의 숙도 판별용 지표 8가지 중 과육 경도, 색도 Hue값, 색도 a*값을 기준으로 취득 영상에 대한 미숙, 성숙, 과숙 과실을 판별할 수 있는 합성곱 신경망 모델을 탐색하였다. 과실의 숙도 분류기준은 Table 1의 기준을 적용하여 딥러닝 모델의 학습과 모델 검증을 실시하였다.

Table 1.

Fruit maturity index of immature, mature, and over mature ‘Mihwang’ peach using CNN model development.

Maturity index Immature Mature Over mature
Firmness 20.1 > 17.0-20.0 < 16.9
Hue 85.1 > 80.0-86.0 < 79.9
a* < 1.9 2.0-6.0 6.1 >

2. 수확지표 경도를 이용한 합성곱 신경망 적용 결과 분석

복숭아 ‘미황’의 과육 경도를 숙도 지표로 활용하여 VGG16 모델과 InceptionV3 모델에 대한 성능 평가를 실시하였다(Fig. 3Table 2). VGG16 모델에 대한 training 결과는 정확도(accuracy) 81.2%, 손실률(loss) 44.1%, 정밀도(precision) 81.9%, 재현율(recall) 80.3%, F1 score(정밀도와 재현율을 결합한 지표) 81.1%를 보였다. InceptionV3 모델에 대한 training 결과는 정확도 83.9%, 손실률 36.0%, 정밀도 87.7%, 재현율 78.9%, F1 score 83.0%를 보였다. validation 결과는 두 모델 모두 약간 낮은 성능을 보였다.

https://static.apub.kr/journalsite/sites/phpf/2022-031-04/N0090310402/images/phpf_31_04_02_F3.jpg
Fig. 3.

The results of accuracy (A), loss (B), precision (C), recall (D), and F1 score (E) of training and validation with firmness data set.

Table 2.

Preliminary trainning and validation results of CNN models with firmness data for a ‘Miwhang’ peach maturity prediction.

Model Accuracy Loss Precision Recall F1-score
VGG-16 Training 81.2% 44.1% 81.9% 80.3% 81.1%
Validation 73.8% 54.3% 74.0% 70.5% 72.2%
InceptionV3 Training 83.9% 36.0% 87.7% 78.9% 83.0%
Validation 77.2% 62.1% 79.2% 74.7% 76.9%

현재까지 과원에서 취득된 영상 이미지에 대한 숙도 예측 모델 검정에 대한 연구는 미미한 실정이다. 수확한 과실에 대하여 랩에서 촬영한 영상에 대한 과실의 경도 예측 모델의 성능을 살펴보면, ‘거봉’ 포도 과실을 대상으로 Vis/NIR 초분광 영상을 이용하여 딥러닝 기술을 기반으로한 누적오토인코더(stacked auto-encoders, SAE)를 활용한 경우 RPredicition2 = 0.932, RMSEP = 0.442 N, RPD = 3.26의 높은 예측성능을 보였다(Xu 등, 2022). Yu 등(2018)은 Vis/NIR 초분광영상을 이용하여 SAE와 완전계층연결신경망(fully-connected neural network, FNN) 모델을 이용하여 서양배 ‘Korla Fragrant Pear’ 품종의 경도 예측을 실시한 결과, RPredicition2 = 0.890, RMSEP = 1.81 N, RPD = 3.05의 예측성능을 보고하였다. 본 연구에서는 RGB 이미지에 대한 예측 성능 평가를 하였으나, 초분광 영상과 다분광 영상처럼 이미지에 보다 많은 정보를 담을 수 있는 영상 활용도 검토되어야 할 것으로 판단되었다. 더불어 새롭게 개발된 다양한 딥러닝 기법을 활용한 모델 성능 평가도 함께 추진 되어야겠다.

3. 수확지표 색도 Hue와 a*값을 이용한 합성곱 신경망 적용 결과 분석

복숭아 ‘미황’의 과피 색도를 봉합선 기준으로 좌측과 우측의 값을 측정하여 VGG16 모델과 InceptionV3 모델에 대한 성능 평가를 실시하였다(Table 34). 복숭아 과실의 착색 정도는 과면에 도달하는 햇빛의 강도와 누적된 시간에 의해 착색도의 차이가 발생한다. 현재까지 일반적인 복숭아 재배 수형은 개심자연형 수형으로 착과 위치에 따른 과피 착색도의 불균일성이 발생하게 된다. 색도 Hue값과 a*값을 숙도 지표로 설정하여 딥러닝 모델을 구현한 결과 성능 차이에 큰 영향을 미치지는 않는 것으로 조사되었다.

Table 3.

Preliminary trainning and validation results of CNN models with Hue value data for a ‘Miwhang’ peach maturity prediction.

Model Accuracy Loss Precision Recall F1-score
Hue value of left position on fruit
VGG-16 Training 84.3% 40.0% 87.5% 82.1% 84.6%
Validation 86.2% 38.5% 88.6% 85.8% 87.1%
InceptionV3 Training 89.2% 32.9% 90.8% 84.5% 87.5%
Validation 84.8% 44.9% 85.7% 81.6% 83.6%
Hue value of right position on fruit
VGG-16 Training 82.0% 46.5% 85.4% 77.8% 81.4%
Validation 84.8% 39.7% 91.1% 82.0% 86.1%
InceptionV3 Training 85.3% 37.7% 90.5% 77.7% 83.4%
Validation 80.0% 48.3% 82.6% 73.5% 77.8%
Table 4.

Preliminary trainning and validation results of CNN models with color a* value data for a ‘Miwhang’ peach maturity prediction.

Model Accuracy Loss Precision Recall F1-score
a* value of left position on fruit
VGG-16 Training 89.4% 34.7% 90.2% 86.3% 88.2%
Validation 80.7% 53.7% 81.2% 77.1% 79.1%
InceptionV3 Training 95.0% 20.0% 96.7% 91.9% 94.2%
Validation 78.6% 47.9% 84.4% 73.5% 78.5%
a* value of right position on fruit
VGG-16 Training 86.9% 38.9% 89.4% 85.0% 87.1%
Validation 84.8% 41.7% 87.7% 83.8% 85.7%
InceptionV3 Training 86.9% 34.7% 93.0% 83.8% 88.0%
Validation 81.4% 51.4% 83.6% 79.1% 81.3%

과피 색도 Hue값을 지표로 모델 성능을 측정한 결과, InceptionV3 모델의 training 결과가 정확도 89.2%, 손실률 32.9%, 정밀도 90.8%, 재현율 84.5%, F1 score 87.5%로 가장 좋은 결과를 보였다. 색도 a*값을 이용한 모델 평가 결과, InceptionV3 모델에 대한 training 결과가 정확도 95.0%, 손실률 20.0%, 정밀도 96.7%, 재현율 91.9%, F1 score 94.2%의 우수한 결과를 보였다. validation 결과는 두 모델 모두 약간 낮은 성능을 보였다.

이미지를 활용한 과실의 숙도 분류 자동화 연구는 RGB, HSV(Hue, Saturation, Value), L*a*b* 색체계 값을 활용하고 있다. 딥러닝을 활용한 블루베리 숙도 판정에 a*값과 b*값의 이미지 내 비율을 계산하여 K-최근접이웃 알고리즘(K-nearest Neighbour, KNN)을 활용하여 미숙과(young fruit), 성숙전 과실(intermediate fruit), 성숙과실(mature fruit)을 86.0%, 94.2%, 96.0%로 각각 분류할 수 있었다(Tan 등, 2018). Mazen과 Nashat(2019)는 바나나 과실의 숙도를 과피 전체의 면적당 갈색 스팟(Hue 값 = 30°)의 비율로 계산하여 과실의 숙도를 95.5% 신뢰수준으로 판단할 수 있었다.

4. VGG16과 InceptionV3 모델의 성능비교

본 연구에서는 전이 학습을 이용해 CNN을 통한 학습을 진행하였으며, 복숭아 과일 이미지에 대해 복숭아 숙도 판정 지표 값을 기준으로 분류한 데이터로 숙성 분류를 할 수 있는 방법을 제안하였다. 전이 학습을 할 때에 사전 학습된 VGG16, InceptionV3 구조의 CNN 모델을 비교 실험하였다(Table 56).

Table 5.

Performance of VGG-16 model to firmness, Hue, and a* in ‘Mihwang’ peach fruit.

Accuracy Loss Precision Recall F1-score
Firmness 73.8% 54.3% 74.0% 70.5% 72.2%
Hue left 86.2% 38.5% 88.6% 85.8% 87.1%
Hue right 84.8% 39.7% 91.1% 82.0% 86.1%
a* left 80.7% 53.7% 81.2% 77.1% 79.1%
a* right 84.8% 41.7% 87.7% 83.8% 85.7%
Table 6.

Performance of InceptionV3 model to firmness, Hue, and a* in ‘Mihwang’ peach fruit.

Accuracy Loss Precision Recall F1-score
Firmness 77.2% 62.1% 79.2% 74.7% 76.9%
Hue left 84.8% 44.9% 85.7% 81.6% 83.6%
Hue right 80.0% 48.3% 82.6% 73.5% 77.8%
a* left 78.6% 47.9% 84.4% 73.5% 78.5%
a* right 81.4% 51.4% 83.6% 79.1% 81.3%

VGG16 모델 기준으로는 F1 성능에서 Hue left > Hue right > a* right > a* left > Firmness 순으로 Hue left 가 87.1%로 가장 높은 성능을 보였고, Firmness가 72.2로 가장 낮은 성능을 보였다. Loss율은 Firmness가 54.3%로 가장 높았고 Hue left가 38.5%로 가장 낮았다. IncptionV3 기준으로 F1 성능에서 Hue left가 83.6%로 가장 높은 성능을 보여주었고, Firmness가 76.9%로 가장 낮은 성능을 보였다. Loss율은 Firmness가 62.1%로 가장 높았고 Hue left가 44.9%로 가장 낮았다.

최종적으로 VGG16과 InceptionV3 모델에서 Hue left 특성이 각각 87.1%, 83.6의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 조사되었다. Firmness를 숙도 지표로 활용한 숙도 분류 모델은 실증 적용이 어려운 것으로 판단되었다. 추후 보다 많은 칼러 이미지 데이터의 취득과 다양한 최신 딥러닝 기법을 활용하여 학습이 진행된다면 본 연구보다 향상된 정확도와 세밀한 숙도 판별이 가능할 것으로 판단되었다.

Acknowledgements

이 연구는 2021년도 경상국립대학교 연구년제연구교수 연구지원비에 의하여 수행되었음. 본 논문은 농촌진흥청 공동연구사업(과제번호: PJ015646032022)의 지원에 의해 이루어진 것임.

References

1
Bang J.H., J. Park, S.W. Park, J.Y. Kim, S.H. Jung, and C.B. Sim 2022, A system for determining the growth stage of fruit tree using a deep learning-based object detection model. Smart Media J 11:9-18. (in Korean) doi:10.30693/SMJ.2022.11.4.9 10.30693/SMJ.2022.11.4.9
2
Behera S.K., A.K. Rath, and P.K. Sethy 2021, Maturity status classification of papaya fruits based on machine learning and transfer learning approach. Inf Process Agric 8:244-250. doi:10.1016/j.inpa.2020.05.003 10.1016/j.inpa.2020.05.003
3
Bhole V., and A. Kumar 2020, Mango quality grading using deep learning technique: Perspectives from agriculture and food industry. Proceedings of the 21st Annual Conference on Information Technology Education, pp 180-186. doi:10.1145/3368308.3415370 10.1145/3368308.3415370
4
Chun J.P., and J.G. Kim 2013, Changes of quality indices and cell wall components during ripening and softening in peach fruit (Prunus persica L. Batsch). J Agric Life Sci 47:35-42. (in Korean)
5
Gong L., W. Wang, T. Wang, and C. Liu 2022, Robotic harvesting of the occluded fruits with a precise shape and position reconstruction approach. J Field Robotics 39:69-84. doi:10.1002/rob.22041 10.1002/rob.22041
6
Ham H.S., and H.C. Cho 2020, A development of rose leaf disease classification system using convolutional neural network. Trans Korean Inst Electr Eng 69:1040-1045. (in Korean) doi:10.5370/KIEE.2020.69.7.1040 10.5370/KIEE.2020.69.7.1040
7
Jeong S.H., M.H. Lee, and H. Yoe 2018, Fruit classification system using deep learning. J Knowl Inf Technol Syst 13:589-595. (in Korean) doi:10.34163/jkits.2018.13.5.009 10.34163/jkits.2018.13.5.009
8
Kim J.K., W. Cho, M.H. Na, and M. Chun 2019, Development of automatic classification system of vegetables by image processing and deep learning. J Korean Data Anal Soc 21:63-73. (in Korean) doi:10.37727/jkdas.2019.21.1.63 10.37727/jkdas.2019.21.1.63
9
Kim M., and C. Choi 2020, Superpixel-based apple leaf disease classification using convolutional neural network. J Broadcast Eng 25:208-217. (in Korean) doi:10.5909/JBE.2020.25.2.208 10.5909/JBE.2020.25.2.208
10
Kingma D.P., and J. Ba 2015, Adam: A method for stochastic optimization. 3rd International Conference on Learning Representations. doi:10.48550/arXiv.1412.6980 10.48550/arXiv.1412.6980
11
LeCun Y., B. Boser, J.S. Denker, D. Henderson, R.E. Howard, W. Hubbard, and L.D. Jackel 1989, Backpropagation applied to handwritten zip code recognition. Neural Comput 1:541-551. doi:10.1162/neco.1989.1.4.541 10.1162/neco.1989.1.4.541
12
Li X., C. Cai, H. Zheng, and H. Zhu 2022, Recognizing strawberry appearance quality using different combinations of deep feature and classifiers. J Food Process Eng 45:e13982. doi:10.1111/jfpe.13982 10.1111/jfpe.13982
13
Lim S.C., S.H. Kim, Y.H. Kim, and D.Y. Kim 2017, Training network design based on convolution neural network for object classification in few class problem. J Korea Inst Inf Commun Eng 21:144-150. (in Korean) doi:10.6109/jkiice.2017.21.1.144 10.6109/jkiice.2017.21.1.144
14
Mazen F.M.A., and A.A. Nashat 2019, Ripeness classification of bananas using an artificial neural network. Arab J Sci Eng 44:6901-6910. doi:10.1007/s13369-018-03695-5 10.1007/s13369-018-03695-5
15
Moon T., J. Park, and J.E. Son 2020, Estimation of sweet pepper crop fresh weight with convolutional neural network. Protected Hort Plant Fac 29:381-387. (in Korean) doi:10.12791/KSBEC.2020.29.4.381 10.12791/KSBEC.2020.29.4.381
16
Park J.Y., H.J. Kim, and K. Kim 2020, Accessing impact of DCGAN image data augmentation for CNN based tomato disease classification. J Digital Cont Soc 21:959-967. (in Korean) doi:10.9728/dcs.2020.21.5.959 10.9728/dcs.2020.21.5.959
17
Saleem M.H., J. Potgieter, and K.M. Arif 2021, Automation in agriculture by machine and deep learning techniques: A review of recent developments. Precis Agric 22:2053-2091 doi:10.1007/s11119-021-09806-x 10.1007/s11119-021-09806-x
18
Seo D., K.C. Kim, M. Lee, K.D. Kwon, and G. Kim 2021, Research on tomato flowers and fruits object detection model in greenhouse environment using deep learning. J Korean Inst Commun Inf Sci 46:2072-2077. (in Korean) doi:10.7840/kics.2021.46.11.2072 10.7840/kics.2021.46.11.2072
19
Silalahi D.D., C.E. Reaño, F.P. Lansigan, R.G. Panopio, and N.C. Bantayan 2016, Using genetic algorithm neural network on near infrared spectral data for ripeness grading of oil palm fresh fruit. Inf Process Agric 3:252-261. doi:10.1016/j.inpa.2016.10.001 10.1016/j.inpa.2016.10.001
20
Stasenko N., E. Chernova, D. Shadrin, G. Ovchinnikov, L. Krivolapov, and M. Pukalchik 2021, Deep learning for improving the storage process: Accurate and automatic segmentation of spoiled areas on apples. 2021 IEEE Instrumentation and Measurement Technology Conference 1-6. doi:10.1109/I2MTC50364.2021.9460071 10.1109/I2MTC50364.2021.9460071
21
Tan K., W.S. Lee, H. Gan, and S. Wang 2018, Recognising blueberry fruit of different maturity using histogram oriented gradients and colour features in outdoor scenes. Biosyst Eng 176:59-72. doi:10.1016/j.biosystemseng.2018.08.011 10.1016/j.biosystemseng.2018.08.011
22
Wang D., W. Cao, F. Zhang, Z. Li, S. Xu, and X. Wu 2022, A review of deep learning in multiscale agricultural sensing. Remote Sens 14:559. doi:10.3390/rs14030559 10.3390/rs14030559
23
Xu M., J. Sun, K. Yao, Q. Cai, J. Shen, Y. Tian, and X Zhou 2022, Developing deep learning based regression approaches for prediction of firmness and pH in Kyoho grape using Vis/NIR hyperspectral imaging. Infrared Phys Technol 120:104003. doi:10.1016/j.infrared.2021.104003 10.1016/j.infrared.2021.104003
24
Yu X., H. Lu, and D. Wu 2018, Development of deep learning method for predicting firmness and soluble solid content of postharvest Korla fragrant pear using Vis/NIR hyperspectral reflectance imaging. Postharvest Biol Technol 141:39-49. doi:10.1016/j.postharvbio.2018.02.013 10.1016/j.postharvbio.2018.02.013
페이지 상단으로 이동하기