영상처리에서 왜 홀수 크기의 필터를 사용하는가

KR101743270B1 - 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법 - Google Patents

다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법 Download PDF

Info

Publication numberKR101743270B1 KR101743270B1 KR1020170029345A KR20170029345A KR101743270B1 KR 101743270 B1 KR101743270 B1 KR 101743270B1 KR 1020170029345 A KR1020170029345 A KR 1020170029345A KR 20170029345 A KR20170029345 A KR 20170029345A KR 101743270 B1 KR101743270 B1 KR 101743270B1AuthorityKRSouth KoreaPrior art keywordsplanktoncnnimageoutputinput imagePrior art date2017-03-08Application numberKR1020170029345AOther languages English (en) Inventor소영성송재현김중칠Original Assignee(주)나인정보시스템Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)2017-03-08Filing date2017-03-08Publication date2017-06-05 2017-03-08 Application filed by (주)나인정보시스템 filed Critical (주)나인정보시스템 2017-03-08 Priority to KR1020170029345A priority Critical patent/KR101743270B1/ko 2017-06-05 Application granted granted Critical 2017-06-05 Publication of KR101743270B1 publication Critical patent/KR101743270B1/ko

Links

  • Espacenet
  • Global Dossier
  • Discuss
  • 230000001537 neural Effects 0.000 claims abstract description 12
  • 230000001427 coherent Effects 0.000 claims abstract description 5
  • 238000011176 pooling Methods 0.000 claims description 36
  • 238000001000 micrograph Methods 0.000 claims description 7
  • 238000001914 filtration Methods 0.000 claims description 3
  • 230000003834 intracellular Effects 0.000 claims description 2
  • 241000894007 species Species 0.000 description 17
  • 230000004913 activation Effects 0.000 description 4
  • 238000000034 method Methods 0.000 description 4
  • 230000001473 noxious Effects 0.000 description 4
  • 238000005259 measurement Methods 0.000 description 2
  • 239000000203 mixture Substances 0.000 description 2
  • 238000007781 pre-processing Methods 0.000 description 2
  • XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nMzAwcHgnIGhlaWdodD0nMzAwcHgnIHZpZXdCb3g9JzAgMCAzMDAgMzAwJz4KPCEtLSBFTkQgT0YgSEVBREVSIC0tPgo8cmVjdCBzdHlsZT0nb3BhY2l0eToxLjA7ZmlsbDojRkZGRkZGO3N0cm9rZTpub25lJyB3aWR0aD0nMzAwLjAnIGhlaWdodD0nMzAwLjAnIHg9JzAuMCcgeT0nMC4wJz4gPC9yZWN0Pgo8dGV4dCB4PScxMDAuNScgeT0nMTcwLjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6NDBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5IPC90ZXh0Pgo8dGV4dCB4PScxMjYuMScgeT0nMTg2LjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6MjZweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID4yPC90ZXh0Pgo8dGV4dCB4PScxMzguMCcgeT0nMTcwLjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6NDBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5PPC90ZXh0Pgo8L3N2Zz4K data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nODVweCcgaGVpZ2h0PSc4NXB4JyB2aWV3Qm94PScwIDAgODUgODUnPgo8IS0tIEVORCBPRiBIRUFERVIgLS0+CjxyZWN0IHN0eWxlPSdvcGFjaXR5OjEuMDtmaWxsOiNGRkZGRkY7c3Ryb2tlOm5vbmUnIHdpZHRoPSc4NS4wJyBoZWlnaHQ9Jzg1LjAnIHg9JzAuMCcgeT0nMC4wJz4gPC9yZWN0Pgo8dGV4dCB4PScxMy4zJyB5PSc1My42JyBjbGFzcz0nYXRvbS0wJyBzdHlsZT0nZm9udC1zaXplOjIzcHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7dGV4dC1hbmNob3I6c3RhcnQ7ZmlsbDojRTg0MjM1JyA+SDwvdGV4dD4KPHRleHQgeD0nMjguMicgeT0nNjIuOScgY2xhc3M9J2F0b20tMCcgc3R5bGU9J2ZvbnQtc2l6ZToxNXB4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO3RleHQtYW5jaG9yOnN0YXJ0O2ZpbGw6I0U4NDIzNScgPjI8L3RleHQ+Cjx0ZXh0IHg9JzM1LjAnIHk9JzUzLjYnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6MjNweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5PPC90ZXh0Pgo8L3N2Zz4K O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
  • 101700037397 MAX2 Proteins 0.000 description 1
  • 206010057190 Respiratory tract infection Diseases 0.000 description 1
  • 230000000875 corresponding Effects 0.000 description 1
  • 238000001514 detection method Methods 0.000 description 1
  • 238000010586 diagram Methods 0.000 description 1
  • 238000011156 evaluation Methods 0.000 description 1
  • 239000000284 extract Substances 0.000 description 1
  • 238000000605 extraction Methods 0.000 description 1
  • 230000001678 irradiating Effects 0.000 description 1
  • 238000010801 machine learning Methods 0.000 description 1
  • 238000002156 mixing Methods 0.000 description 1
  • 238000010606 normalization Methods 0.000 description 1
  • 238000005192 partition Methods 0.000 description 1
  • 238000003909 pattern recognition Methods 0.000 description 1
  • 238000005070 sampling Methods 0.000 description 1

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고, 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계; 상기 CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계; 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계로 이루어질 수 있다.

Description

다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법{The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image}

본 발명은 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법에 관한 것이다.

일반적으로, 플랑크톤은 자연 먹이 사슬의 가장 밑바닥에 있으면서 해양 생태계에서 매우 중요한 역할을 수행하며, 상기 플랑크톤에는 유해종과 비유해종이 있다.

해양 생태계를 건강하게 유지하기 위해서는 플랑크톤에 대한 종의 분포를 모니터링(Monitoring)하고 필요시 경보를 발령하는 것이 중요하다.

상기 플랑크톤에 대한 모니터링은 수동이나 자동으로 수행될 수 있다.

통상적으로, 인간의 전문 지식에 의존하는 수동 접근 방식은 지루할 뿐만 아니라 시간이 오래 걸리고 오류가 발생 되기 쉽다.

이에 따라, 플랑크톤에 대한 인식 기능을 갖는 많은 자동 접근 방법이 제안되었다.

최근까지 플랑크톤에 대한 자동 인식 방법은 주로 패턴 인식이나 고전적인 기계 학습 방법에 따른 특징 추출에 기반을 두고 있다.

이때, 사용된 특징으로는 플랑크톤의 모양과, 질감, 불변 모멘트 등이 있으며, 플랑크톤의 인식에는 SVM(Support Vector Machine)과, 앙상블 분류기, 및 다층 신경망(NN)등이 사용 되고 있다.

단지, 소수의 방법만이 기존 접근 방법의 플랑크톤 인식 성능을 능가하는 심층 학습 방법을 채택하고 있다.

하지만, 거의 모든 심층 학습 방법은 하나의 이미지에 단지 하나의 플랑크톤만 있다고 가정하므로 같은 종의 플랑크톤이 여러 마리 응집해 있거나 다른 종의 플랑크톤이 여러 마리 산재해 있는 경우 인식할 수 없으며, 또한, 개개의 플랑크톤의 위치도 찾을 수 없다는 문제점이 있었다.

한편, 본 발명과 관련된 연구로서 Luo 등은 Shadow Image Practicle Profiling Evaluation Recorder(SIPPER Ⅱ) 이미지를 사용하는 적극적인 학습 접근법을 제안하였다.

그들은 정상/가중 모멘트와, 푸리에 기술자, 및 텍스처 기능을 포함하여 49개의 특징을 먼저 추출하고 인식을 위해 다중 클래스 SVM을 적용했다.

테스트 된 샘플의 수는 단지 5종 8,440개이고, 그로 인한 인식 정확도는 61%이다.

Hu 등은 Video Plankton Recorder(VPR)에 의해 캡쳐(Capture)된 영상으로부터 얻은 특징으로 co-occurrence matrices를 사용하였다.

SVM이 7종의 플랑크톤에 대해 20,000가지 예를 인식하는 분류기로 사용되었고, 이들의 정확도는 약 72%라고 보고되었다.

또한, Blaschko 등은 저해상도의 FlowCam 이미지 센서로 포착된 플랑크톤 이미지에서 모멘트와, 텍스처, 윤곽, 및 미분 특징과 같은 다양한 특징을 추출하고 플랑크톤 인식을 위해 단일 또는 앙상블 분류기를 사용했다.

Blaschko 등은 앙상블 방법에 따라 13종의 플랑크톤에 대하여 982가지 예를 테스트하였으며, 테스트 결과 53% 내지 73%의 정확도를 보였다.

또, Cowen 등은 이미지를 얻기 위해 ISIIS라고 불리는 고해상도 라인 스캔 카메라 시스템을 사용했다.

단일 이미지에 여러 생물체가 존재할 수 있다고 가정하였으며, 가우스 기반의 배경 모델을 혼합하여 물체를 탐지했다.

다음으로, 모양 히스토그램과, 물체 견고성, 3차까지의 Hu 모멘트, 푸리에 기술자, 및 원형 투영 기술자를 추출하였다.

마지막으로 멀티 클래스 SVM이 인식에 적용되었다.

상기 Cowen 등은 5종의 플랑크톤 1,110개를 테스트하였으며, 플랑크톤의 분류군에 따라 61% 내지 97%의 정확도를 보였다.

또, Schulze 등은 전처리 과정에서 Sobel 연산자와 히스토그램 정규화를 사용하고 FlowCam 영상 센서에 의해 포착된 플랑크톤 영상으로부터 플랑크톤을 분할하기 위해 Region growing 방법을 채택하였다.

다음으로, Schulze 등은 타원 푸리에 기술자와, co-occurrence matrices, 방향성 히스토그램, 모멘트, 및 회전 불변 국부적 이진 패턴 등을 추출하였다.

마지막으로 2단계의 다층 신경망을 사용하였는데 1단계에서는 플랑크톤과 플랑크톤이 아닌 것을 분리하고 2단계에서는 인식을 수행하였다.

상기 Schulze 등은 10종의 플랑크톤이 촬영된 1,418 개의 플랑크톤 이미지를 사용하였으며, 평균 94.7%의 정확도를 기록했다.

이 시스템은 Plankton Vision으로 알려진 통합 시스템으로 개발되었다.

또, 2014년 12월부터 2015년 3월까지 NDSB(National Data Science Bowl)에 서 개최한 플랑크톤 분류를 위한 콘테스트에서는 1,000개 이상의 팀이 참가하였으며, 최종적으로, "Deep Sea"팀이 수상하였다.

121 종류의 플랑크톤이 촬영된 영상이 30,000개가 있었는데, 이를 정확하게 분류하는 것이 과제였다.

대부분의 상위 랭킹 팀들은 심층 학습 구조를 채택하였으며, Deep Sea는 0.595671의 로그 손실을 보고했다.

하지만, 이전의 거의 모든 연구에서는 실제 환경에서 빈번하게 발생할 수 있는 다수의 플랑크톤이 응집해 있거나 산재해 있는 경우를 허용하지 않는다는 문제점이 있었다.

한편, 본 발명의 선행 기술로는 특허등록번호 "10-0558613"호의 "디지털 영상 처리 기법을 이용한 식물성 플랑크톤 개체수 측정 방법"이 출원되어 등록되었는데, 상기 디지털 영상 처리 기법을 이용한 식물성 플랑크톤 개체수 측정 방법은 해수에 포함된 식물성 플랑크톤의 개체수를 측정하기 위한 방법에 있어서, 식물성 플랑크톤이 포함된 해수를 소정 크기의 탱크에 채워넣어 계측용 조성물을 만드는 단계와; 상기 계측용 조성물 내부로 레이저와 원통형 렌즈를 사용하여 평면 광을 조사하는 단계; 상기 평면 광 내에 형성된 소정 크기의 영역을 CMOS 카메라로 촬영하여 디지털 영상을 획득한 다음 획득된 디지털 영상을 메인보드를 거쳐 컴퓨터 시스템으로 전송하는 단계; 컴퓨터 시스템을 사용하여 획득된 디지털 영상의 왜곡을 보정 하고, 필터링을 통해 영상 노이즈를 제거한 다음, 외곽선을 검출하는 전처리 과정을 통해 디지털 영상을 측정 가능한 형태의 영상으로 변환하는 단계; 및 변환된 영상에서 소정 크기의 체적을 추출하여 식물성 플랑크톤의 개체수를 측정하는 단계로 이루어질 수 있다.

대한민국 특허등록번호 10-0558613 (2006.03.13)대한민국 특허공개번호 10-2015-0137047 (2015.12.08)

이에 본 발명은 상기 문제점을 해결하기 위하여 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개의 플랑크톤을 분리 및 인식하는 방법을 제공하는데 본 발명의 목적이 있다.

상기 목적을 달성하기 위한 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계; CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계; 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계로 이루어질 수 있다.

이러한 절차로 이루어진 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집되어 있거나 산재 된 입력 영상에서 개개의 플랑크톤의 위치를 파악함과 더불어 개개의 플랑크톤 종류를 인식할 수 있으므로 해당 입력 영상이 촬영된 해양 또는 담수의 건강 상태을 정확하게 판단할 수 있다.

도면 1은 본 발명에 적용된 CNN(Convolutional Neural Network)을 설명하기 위한 도면,
도면 2는 본 발명의 플로우 챠트(Flow Chart),
도면 3a 내지 도면 3c는 컨볼루션 레이어(Convolution layer)를 설명하기 위한 도면,
도면 4는 맥스 풀링 레이어(Max pooling layer)를 설명하기 위한 도면,
도면 5는 본 발명의 실험에 사용된 3종의 유해 플랑크톤 종과, 15종의 비유해 플랑크톤 종, 도합 18종에 대한 949개의 샘플을 나열한 표,
도면 6a와 도면 6g는 다수의 플랑크톤이 응집 혹은 산재 된 영상을 본 발명에 입력시켰을 때 입력 영상에 포함된 플랑크톤의 위치를 사각 박스 형태로 보이고 인식 결과를 영문으로 오버레이(Overlay)하여 표시한 결과 영상.

이하, 첨부된 도면을 참조하여 본 발명을 자세히 설명한다.

본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 도면 1 내지 도면 2에 도시한 바와 같이, 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2); CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계(S3); 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계(S4)로 이루어질 수 있다.

상기 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)에서, 상기 CNN은 입력된 플랑크톤 영상에 컨볼루션 필터 마스크(Convolution filter mask)를 적용하여 입력된 플랑크톤 영상을 컴퓨터가 처리할 수 있는 피처맵(Feature map)으로 변환하는 컨볼루션 레이어(Convolution layer)와, 상기 컨볼루션 레이어(Convolution layer)를 거쳐 출력된 피처맵(Feature map)의 데이터 크기를 줄여주는 풀링 레이어(Pooling layer), 및 상기 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에 의해 추상화되고 요약된 정보로부터 플랑크톤를 인식함과 더불어 입력 영상 내 플랑크톤의 위치를 검출하는 풀리 커넥티드 레이어(Fully connected layer)를 포함한다.

상기 컨볼루션 필터 마스크는 플랑크톤 영상으로부터 플랑크톤의 종류와 입력 영상 내 플랑크톤의 위치를 파악하기 위해 여러 종의 플랑크톤 종을 파악할 수 있는 특징을 갖는다.

상기 컨볼루션 레이어(Convolution layer)는 도면 3a 내지 도면 3c에 도시한 바와 같이,

영상처리에서 왜 홀수 크기의 필터를 사용하는가

내지

영상처리에서 왜 홀수 크기의 필터를 사용하는가

크기의 컨볼루션 필터 마스크(Convolution filter mask)를 이용하여 CNN으로 입력된 플랑크톤 영상에서 특징을 추출하고, 추출된 특징을 피처 맵(Feature map)으로 출력한다.

상기 컨볼루션 레이어(Convolution layer)는 13개 이상이고, 상기 피처맵(Feature map)의 수는 64 내지 1024개이다.

상기 컨볼루션 필터 마스크는 입력된 플랑크톤의 영상에서 플랑크톤의 특징을 추출한다.

상기 컨볼루션 필터 마스크는 플랑크톤이 포함된 입력 영상 중에 컨볼루션 필터 마스크가 가진 특성이 강하면 결과 값이 크게 나오는 반면, 플랑크톤이 포함된 입력 영상 중에 컨볼루션 필터 마스크가 가진 특성이 없으면 결과 값이 '0'에 가까워진다.

한편, 플랑크톤이 촬영된 입력 영상이 컨볼루션 레이어를 거쳐 어느 정도 특징이 추출되면 입력 영상 내 플랑크톤의 종류와 위치를 파악하는 CNN은 추출된 모든 데이터를 가지고 판단할 필요가 없다.

예를 들어, 우리가 고해상도 사진을 보고 물체를 판별할 수 있지만, 작은 사진을 가지고도, 그 사진의 내용이 어떤 내용인지 판단할 수 있는 원리이다.

따라서, 추출된 피처맵(Feature map)의 크기를 인위적으로 줄이는 작업을 서브 샘플링(Sub-sampling) 또는 풀링(Pooling)이라고 한다.

상기 풀링(Pooling)에는 맥스 풀링(Max pooling)과, Average pooling, 및 L2-norm pooling 등이 있는데, 본 발명의 풀링 레이어(Pooling layer)에서는 맥스 풀링 레이어(Max pooling layer)와 어베러지 풀링 레이어(Average pooling layer) 중 어느 하나를 사용할 수 있다.

상기 풀링 레이어(Pooling layer)는 컨볼루션 레이어(Convolution layer)의 피처맵(Feature map) 크기를 줄여주는 역할을 수행하는데, 예를 들어,

영상처리에서 왜 홀수 크기의 필터를 사용하는가

피처맵(Feature map)을 스트라이드(Stride)가 2인

영상처리에서 왜 홀수 크기의 필터를 사용하는가

풀링 필터(Pooling filter)를 사용할 경우, 총

영상처리에서 왜 홀수 크기의 필터를 사용하는가

개의 출력 값이 생기는데, 여기서, 상기 맥스 풀링 레이어(Max pooling layer)는

영상처리에서 왜 홀수 크기의 필터를 사용하는가

풀링 필터 안의 4개 파라미터(Parameter) 값들 중 최대(Max) 값 1개를 선택하고 나머지 3개 파라미터 값은 버림으로써 피처맵(Feature map)의 크기를 줄여준다.

또한, 상기 Average pooling layer는

영상처리에서 왜 홀수 크기의 필터를 사용하는가

풀링 필터 안의 4개 파라미터(Parameter) 값들을 평균 낸 평균(Average) 값 1개를 선택함으로써 피처맵(Feature map)의 크기를 줄여준다.

상기 맥스 풀링(Max pooling)에 대해 도면 4를 참고하여 보다 자세히 설명하면 다음과 같다.

상기 맥스 풀링(Max pooling)은 피처맵(Feature map)을

영상처리에서 왜 홀수 크기의 필터를 사용하는가

의 크기로 잘라낸 다음, 잘라낸

영상처리에서 왜 홀수 크기의 필터를 사용하는가

크기의 이미지 영역에서 가장 큰 값을 뽑아내는 방법이다.

도면 4는

영상처리에서 왜 홀수 크기의 필터를 사용하는가

피처맵(Feature map)에서

영상처리에서 왜 홀수 크기의 필터를 사용하는가

맥스 풀링 필터(Max pooling filter)를 사용하고, 스트라이드(Stride)는 2로 설정하여 맥스 풀링 필터가 피처맵(Feature map) 상에서 우측으로 2칸 하부로 2칸씩 이동하면서 맥스 풀링(Max pooling)을 처리하는 예인데, 좌측 상단에서는 '6'이 가장 큰 값이기 때문에 '6'을 뽑아내고, 우측 상단에는 2,4,7,8 중 '8'이 가장 크기 때문에 '8'을 뽑아낸다.

상기 맥스 풀링(Max pooling)은 가장 큰 특징값이 다른 특징값들을 대표한다.

상기 맥스 풀링(Max pooling)은 전체 데이터의 사이즈가 줄어들기 때문에 연산에 들어가는 컴퓨팅 리소스가 적어진다는 장점이 있다.

본 발명에서 상기 풀링 레이어(Pooling layer)는 4개 이상이며, 상기 풀링 레이어(Pooling layer)에서는 풀링 필터(Pooling filter)가 피처맵(Feature map) 상에서 우측 픽셀이나 하측 픽셀로 이동되는 픽셀 간격인 스트라이드(Stride)를 2로 설정하여 풀링 필터가 피처맵의 어느 한 구간에서 필터링(Filtering)을 끝마쳤을 때 피처맵의 우측이나 하측으로 2 픽셀씩 이동된다.

상기 풀리 커넥티드 레이어(Fully connected layer)는 2개 이상으로 구성될 수 있다.

상기 풀리 커넥티드 레이어(Fully connected layer)는 기존 신경망과 같은 형태의 레이어로서, 모든 입력 노드(Input Node)가 모든 출력 노드(Output Node)로 연결된 상태이고 실제로 컴퓨터는 상기 풀리 커넥티드 레이어(Fully connected layer)를 통해 특징 데이터를 학습하게 된다.

상기 풀리 커넥티드 레이어(Fully connected layer)는 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에서 추출된 플랑크톤의 특징 값들을 기존의 뉴럴 네트워크(Neural Network)에 넣어 플랑크톤의 종류를 인식하고 입력 영상 내 플랑크톤의 위치를 파악한다.

또한, 상기 풀리 커넥티드 레이어(Fully connected layer)의 출력단에는 입력 영상에 포함된 플랑크톤에 대해 각 플랑크톤의 종류와 위치에 따른 확률 값을 표시하기 위해 소프트맥스(Softmax) 함수가 사용될 수도 있다.

또, 본 발명은 컨볼루션 필터 마스크를 적용하여 추출된 피처맵(Feature map)에 leaky ReLU(Rectified Linear Unit) activation function을 적용한다.

상기 leaky ReLU activation function을 사용하는 이유로는 CNN에서 신경망이 깊어질수록 학습이 어렵기 때문에 백-프로퍼게이션(Back-propagation) 알고리즘 방법을 사용하는데, Sigmoid 함수를 activation 함수로 사용할 경우 레이어가 깊어지면 백-프로퍼게이션 알고리즘이 제대로 동작하지 않을 수 있어 (Gradient Vanishing 현상: 결과값을 CNN의 뒤에서 앞으로 전달할 때 전달 값이 사라지는 현상) leaky ReLU activation function을 사용한다.

상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2)에서 상기 CNN의 학습은 지도 학습(Supervised learning)을 이용하며, 입력값과, 출력 기대값으로 이루어진 학습 데이터를 이용하여 CNN의 학습을 진행한다.

상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2)는 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가하고 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 출력 기대값과의 차이를 확인하는 단계와, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값과의 차이를 참고한 다음, 역전파 알고리즘(Back-propagation)을 이용하여 상기 CNN의 네트(Net)에 해당하는 파라미터(가중치, Weight) 값을 변화시키는 단계; 및 또 다른 플랑크톤이 촬영된 입력 영상을 CNN에 반복적으로 적용함으로써 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과가 출력 기대값으로 수렴하도록 하고 상기 실제 출력값과 출력 기대값의 차이가 최소화되면 CNN의 학습을 마치는 단계를 포함한다.

상기 출력 기대값이란 CNN의 입력단으로 입력된 플랑크톤이 촬영된 입력 영상속에 포함된 실제 플랑크톤의 정확한 종류와 입력 영상 속 플랑크톤의 정확한 위치이다.

결과적으로, 도면 5에 도시한 바와 같이, 3종의 유해 플랑크톤 종과, 15종의 비유해 플랑크톤 종 도합 18종에 대한 949개의 샘플을 본 발명에 적용해 본 결과, 인식을 시도한 949개의 모든 영상에서 100%의 인식율과 거의 100%의 위치 검출율을 보였다.

또한, Flow Cytometer와 Microscope(FlowCam) 영상에 본 발명을 적용해 본 결과 거의 완벽한 결과를 얻을 수 있었다.

여기서, 도면 6a 내지 도면 6g에 도시한 색깔 박스는 검출된 개개의 플랑크톤의 위치를 나타내고, 박스 위의 이름은 인식된 플랑크톤에 대한 종 이름이다.

이러한 절차로 이루어진 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집해 있거나 산재 된 입력 영상에서 개개의 플랑크톤의 위치를 파악함과 더불어 개개의 플랑크톤 종류를 인식할 수 있으므로 해당 입력 영상이 촬영된 해양 또는 담수의 건강 상태를 정확하게 판단할 수 있다.

Claims (4)

  1. 다수의 플랑크톤이 응집 혹은 산재된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)와;
    상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2);
    CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계(S3);
    및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계(S4)로 이루어지는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.

  2. 제1 항에 있어서,
    상기 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)에서,
    상기 CNN은 입력된 플랑크톤 영상에 컨볼루션 필터 마스크(Convolution filter mask)를 적용하여 입력된 플랑크톤 영상을 컴퓨터가 처리할 수 있는 피처맵(Feature map)으로 변환하는 컨볼루션 레이어(Convolution layer)와,
    상기 컨볼루션 레이어(Convolution layer)를 거쳐 출력된 피처맵(Feature map)의 데이터 크기를 줄여주는 풀링 레이어(Pooling layer),
    및 상기 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에 의해 추상화되고 요약된 정보로부터 플랑크톤를 인식함과 더불어 플랑크톤의 종류를 인식하고 입력 영상 내 플랑크톤의 위치를 검출하는 풀리 커넥티드 레이어(Fully connected layer)를 포함하는 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.

  3. 제2 항에 있어서,
    상기 컨볼루션 레이어(Convolution layer)는

    영상처리에서 왜 홀수 크기의 필터를 사용하는가

    내지

    영상처리에서 왜 홀수 크기의 필터를 사용하는가

    크기의 컨볼루션 필터 마스크(Convolution filter mask)를 이용하여 CNN으로 입력된 플랑크톤 영상에서 특징을 추출하고,
    추출된 특징은 피처 맵(Feature map)으로 출력하며,
    상기 컨볼루션 레이어(Convolution layer)는 13개 이상이고,
    상기 피처맵(Feature map)의 수는 64개 내지 1024개인 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.

  4. 제2 항에 있어서,
    상기 풀링 레이어(Pooling layer)는 4개 이상이고,
    상기 풀링 레이어(Pooling layer)에서는 풀링 필터(Pooling filter)가 피처맵(Feature map) 상에서 우측 픽셀이나 하측 픽셀로 이동되는 픽셀 간격인 스트라이드(Stride)를 2로 설정하여 풀링 필터가 피처맵의 어느 한 구간에서 필터링(Filtering)을 끝마쳤을 때 피처맵의 우측이나 하측으로 2 픽셀 이동되는 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.

KR1020170029345A 2017-03-08 2017-03-08 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법 KR101743270B1 (ko)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020170029345A KR101743270B1 (ko) 2017-03-08 2017-03-08 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020170029345A KR101743270B1 (ko) 2017-03-08 2017-03-08 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법

Publications (1)

Publication NumberPublication Date
KR101743270B1 true KR101743270B1 (ko) 2017-06-05

Family

ID=59222929

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020170029345A KR101743270B1 (ko) 2017-03-08 2017-03-08 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법

Country Status (1)

CountryLink
KR (1) KR101743270B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN108230390A (zh) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 训练方法、关键点检测方法、装置、存储介质和电子设备
CN108961301A (zh) * 2018-07-12 2018-12-07 中国海洋大学 一种基于无监督逐像素分类的角毛藻图像分割方法
CN109614456A (zh) * 2018-11-28 2019-04-12 武汉大学 一种基于深度学习的地理信息的定位分区方法及装置
KR20190049278A (ko) * 2017-11-01 2019-05-09 한국생산기술연구원 딥러닝의 활성화 함수 분석을 통한 물체 검출 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2003085533A (ja) 2001-09-07 2003-03-20 Microbio Corp 個数計数方法、そのためのプログラム、記録媒体および個数計数装置
  • 2017
    • 2017-03-08 KR KR1020170029345A patent/KR101743270B1/ko active IP Right Grant

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2003085533A (ja) 2001-09-07 2003-03-20 Microbio Corp 個数計数方法、そのためのプログラム、記録媒体および個数計数装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN108230390A (zh) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 训练方法、关键点检测方法、装置、存储介质和电子设备
KR20190049278A (ko) * 2017-11-01 2019-05-09 한국생산기술연구원 딥러닝의 활성화 함수 분석을 통한 물체 검출 장치 및 방법
KR102070828B1 (ko) * 2017-11-01 2020-01-30 한국생산기술연구원 딥러닝의 활성화 함수 분석을 통한 물체 검출 장치 및 방법
CN108961301A (zh) * 2018-07-12 2018-12-07 中国海洋大学 一种基于无监督逐像素分类的角毛藻图像分割方法
CN108961301B (zh) * 2018-07-12 2021-11-02 中国海洋大学 一种基于无监督逐像素分类的角毛藻图像分割方法
CN109614456A (zh) * 2018-11-28 2019-04-12 武汉大学 一种基于深度学习的地理信息的定位分区方法及装置
CN109614456B (zh) * 2018-11-28 2020-11-03 武汉大学 一种基于深度学习的地理信息的定位分区方法及装置

Similar Documents

PublicationPublication DateTitle
KR101743270B1 (ko) 2017-06-05 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법
CN111325713A (zh) 2020-06-23 基于神经网络的木材缺陷检测方法、系统及存储介质
KR100889997B1 (ko) 2009-03-25 영상처리를 이용한 선박 밸러스트 워터 검사 장치 및 그방법
Tamilselvi et al. 2017 Unsupervised machine learning for clustering the infected leaves based on the leaf-colours
CN112598713A (zh) 2021-04-02 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
Atienza-Vanacloig et al. 2016 Vision-based discrimination of tuna individuals in grow-out cages through a fish bending model
Mohamed et al. 2020 Msr-yolo: Method to enhance fish detection and tracking in fish farms
Galsgaard et al. 2015 Circular hough transform and local circularity measure for weight estimation of a graph-cut based wood stack measurement
Alharbi et al. 2018 Automatic counting of wheat spikes from wheat growth images
Raitoharju et al. 2018 Benchmark database for fine-grained image classification of benthic macroinvertebrates
Ashok Kumar et al. 2019 Unsupervised machine learning for clustering the infected leaves based on the leaf-colors
Ghazal et al. 2019 Automated framework for accurate segmentation of leaf images for plant health assessment
Petrellis 2021 Measurement of fish morphological features through image processing and deep learning techniques
CN111046880A (zh) 2020-04-21 一种红外目标图像分割方法、系统、电子设备及存储介质
CN113763408A (zh) 2021-12-07 一种无人船航行过程中的图像快速辨别水面下水草的方法
Yumang et al. 2020 Determination of Shelled Corn Damages using Colored Image Edge Detection with Convolutional Neural Network
Xu et al. 2020 Detection of Bluefin Tuna by Cascade Classifier and Deep Learning for Monitoring Fish Resources
Thai et al. 2021 Computer vision based estimation of shrimp population density and size
İşçimen et al. 2017 Classification of serranidae species using color based statistical features
CN111968081A (zh) 2020-11-20 鱼群自动计数方法、装置、电子设备及存储介质
Mashford et al. 2007 Pixel-based colour image segmentation using support vector machine for automatic pipe inspection
Grishkin et al. 2017 Biofouling detection based on image processing technique
Orbert et al. 1993 Watershed segmentation of binary images using distance transformations
Latte et al. 2015 A combined color and texture features based methodology for recognition of crop field image
Sravanthi et al. 2021 Efficient image-based object detection for floating weed collection with low cost unmanned floating vehicles
DateCodeTitleDescription
2017-05-12 E902 Notification of reason for refusal
2017-05-29 E701 Decision to grant or registration of patent right
2017-05-29 GRNT Written decision to grant