DOI QR코드

DOI QR Code

Pig Segmentation using Concave-Points and Edge Information

오목점과 에지 정보를 이용한 돼지의 경계 구분

  • Baek, Hansol (Dept. of Computer and Information Science, Korea University) ;
  • Chung, Yeonwoo (Dept. of Applied Statistics, Korea University) ;
  • Ju, Miso (Dept. of Computer and Information Science, Korea University) ;
  • Chung, Yongwha (Dept. of Computer and Information Science, Korea University) ;
  • Park, Daihee (Dept. of Computer and Information Science, Korea University) ;
  • Kim, Hakjae (Class Act)
  • Received : 2016.07.28
  • Accepted : 2016.08.09
  • Published : 2016.08.30

Abstract

To reduce huge losses in pig farms, weaning pigs with weak immune systems are required to be carefully supervised. Even if various researches have been performed for pig monitoring environment, segmenting each pig from touching-pigs is still entrenched as a difficult problem. In this paper, we propose a segmentation method for touching-pigs by using concave-points and edge information in a video surveillance system. Especially, we interpret the segmentation problem as a time-series analysis problem in order to identify the concave-points generated by touching-pigs. Based on the experimental results with the videos obtained from a domestic pig farm, we believe that the proposed method can accurately segment the touching-pigs.

Keywords

1. 서 론

좁은 공간에 다수의 자돈을 밀집 사육하는 국내에서는 구제역 등과 같은 전염병 발생 시 피해가 매우 빠르게 확산되는 취약한 구조를 가지고 있다. 특히, 생후 8주 미만의 “이유자돈”들은 면역력이 약하고, 서열 싸움이 심하며, 공격적 행동으로 인하여 폐사 발생 가능성이 높다. 그러나 관리인 당 약 2,000 두의 돼지를 관리하는 국내 돈사 환경에서 관리인이 돈사 내 개별 돼지의 모든 이상 상황을 감시하는 것은 어려운 문제이다.

이러한 축산 농가의 문제점에 대한 해결책 중 하나로, IT 기술과 농·축산업과의 융합 기술(Computer and Electronics in Agriculture)이라는 새로운 분야가 최근 활발하게 연구되고 있다[1,2]. 본 논문에서는 이러한 문제를 해결하기 위해 비디오 센서를 사용하여 혼잡한 돈사 내 개별 돼지들의 행동을 자동으로 관리할 수 있는 돼지 모니터링 시스템을 위한 돼지 경계 구분 방법을 제안한다.

관련 연구로 돈방 내 이유자돈 집단의 효율적 관리에 관한 연구가 보고되었으나[3], 개별 돼지에 대한 구분을 할 수 없고 돈방 내 돼지들의 집단 움직임만을 판단하는 한계가 있다. 따라서 돈사에서 촬영된 영상을 처리 및 해석하는 과정에서 발생하는 어려움 중 혼잡한 돈방에서 움직이는 근접한 돼지들의 객체들을 개별로 식별하기 위한 추가 연구가 필요하다. 즉, 움직이는 개별 돼지들을 탐지 및 추적 하는 경우, 색상이 유사한 두 마리 이상의 돼지가 서로 근접하여 움직이게 되면 하나의 돼지로 탐지되는 문제가 발생하여 개별 돼지들을 지속적으로 추적하기 어렵다는 한계가 있다[4,5].

이러한 근접 돼지 분리 문제를 해결하기 위해 개별 돼지들의 등에 서로 다른 색을 칠하거나 다른 모양의 “표식”을 사용하는 방법이 제안되었다[6,7]. 그러나 관리인 당 약 2,000두의 돼지를 관리하는 국내 돈사 환경에서 빠르게 성장하는 모든 돼지의 등에 표식을 직접 그리거나 유지하는 것은 적합하지 않은 방법이다. 따라서 인위적인 표식을 사용하지 않는 방안으로 표식 없이 세 마리의 돼지를 추적하는 연구가 보고되었으나[8], 두 마리 이상의 근접 돼지에 대한 구분이 불가능하여 개별 돼지가 평균 8분까지만 추적되는 제약이 있었다. 즉, 열악한 국내 돈사 환경에서는 표식 없이 돈방내 약 20여 마리의 돼지를 개별적으로 분리할 수 있어야 하지만, 돼지의 수가 증가할수록 근접 돼지 구분에 대한 난이도 역시 증가하여 기존의 방법으로는 구분하기가 어렵다는 문제가 있다.

Fig. 1은 이유자돈을 사육하는 돈방의 내부를 보여주는데, 움직이는 돼지가 근접하여 구분이 어려운 “근접 돼지(touching-pigs)”가 존재함을 알 수 있다. 근접 상황은 활동하는 돼지들이 서로 근접하여 움직일 때에 발생하며, 이러한 어려움 때문에 개별 돼지 각각에 대한 추적 및 이러한 추적 정보를 이용한 개별 돼지별 이상행동 분석에 관한 연구는 보고되지 않고 있다. 따라서 개별 돼지에 대한 자동 모니터링을 위해서는 근접 돼지를 개별적으로 구분할 수 있는 방법이 필요하다.

Fig. 1.Illustration of“touching-pigs”

최근 이러한 근접 상황을 해결하기 위하여 이전 프레임의 정보를 이용한 근접 돼지 구분 방법이 제안되었으나[9], 근접한 돼지의 수가 많거나 근접한 패턴이 복잡한 경우에는 각각의 개별 돼지들로 구분하지 못하는 문제가 발생할 수 있다. 또한 근접 객체구분에 흔히 사용되는 워터쉐드(watershed) 기법[10,11]을 사용하여도 영역을 과분할하는 특성으로 인하여 개별 돼지로 표현하기 위한 추가 처리 비용이 발생하고, 근접한 돼지의 면적이 넓은 경우에는 거의 구분하지 못하는 문제가 있다. 따라서 본 논문에서는 2차원의 근접 돼지 “외곽선(outline) 데이터”를 1차원의 “시계열(time-series) 데이터”로 해석하여 근접 돼지가 만들어내는 “오목점(concave-point)”을 찾은 후, 오목점 사이의 에지 정보를 이용하여 근접 돼지의 경계선을 찾는 방법을 제안한다.

본 논문의 구성은 다음과 같다. 2장에서는 제안방법을 사용하여 근접 돼지를 구분하는 방법을 서술하고, 3장에서는 제안한 알고리즘을 수행하여 획득한 실험 결과를 통해 성능을 비교 및 분석한다. 마지막으로 4장에서는 결론을 맺는다.

 

2. 제안 방법

본 논문에서는 개별 돼지 자동 모니터링을 위해 근접 돼지를 구분하는 방법을 제안하는데, [9]의 방법을 통해 움직이는 두 마리 이상의 근접 돼지 전경이 획득되었다고 가정한다. 즉, 영상의 전·배경을 분리하는데 효과적인 Gaussian Mixture Model(GMM)[12,13]을 이용하여 돈방 내의 전체 돼지 중 움직임을 갖는 돼지의 영역만을 추출한다. 이 때 GMM은 계산량이 많아 실시간으로 처리하기 어렵기 때문에, 수행시간을 감소시키기 위하여 GMM 입력 영상의 크기를 줄이는 다운 샘플링(down sampling)을 먼저 수행한다[9]. 본 논문에서는 GMM을 이용하여 추출한 움직임 영역 가운데 두 마리의 근접 돼지 전경을 획득하지만, 이렇게 획득된 돼지 전경은 특별한 특징점을 갖지 않아 SIFT 등의 특징 추출 방법을 적용하는 대신 돼지 “모습(shape)” 자체를 이용한다.

본 논문에서 제안하는 방법은 근접 돼지의 외곽선 정보로부터 생성되는 시계열 데이터를 이용하여 근접 돼지가 만들어내는 오목점을 추출하고, 오목점 근처의 에지 정보를 이용하여 근접 돼지의 최종 경계선을 추출한다. 특히, 움직이는 돼지의 모습을 추출하는 단계에서 여러 에러들이 존재하기 때문에 검증용 정보를 활용하여 근접 돼지가 만들어내는 오목점을 정확히 추출할 수 있도록 한다.

Fig. 2는 제안하는 근접 돼지 분리 알고리즘의 전체 구조도를 나타낸다. 먼저, 2차원의 근접 돼지 외곽선 데이터를 반시계 방향으로 순차적으로 탐색하면서 탐색점(search-point)과 전후로 일정한 간격을 갖는 외곽선 위의 인접점(neighbor-point)을 결정한다. 그리고, 탐색점과 인접점을 이어 생성된 삼각형의 면적(triangle area)을 계산하여 오목점 후보 추출을 위한 시계열 데이터로 생성한다. 또한 근접 돼지 영상에 Medial Axis Transform(MAT)를[14] 적용하여 근접 돼지의 골격(skeleton)을 추출하고 중심점(center-point)을 검출한 후, 추출된 오목점 후보 페어의 평균점(average-point) 등의 검증용 정보를 통합하여 오목점 후보 중 근접 돼지 구분에 필요한 오목점을 결정하고, 결정된 오목점 근처의 에지정보를 이용하여 근접 돼지의 경계를 최종 구분한다.

Fig. 2.Overall structure of a segmentation algorithm for touching-pigs.

2.1 오목점 후보 추출

근접 돼지의 외곽선으로부터 두 돼지가 맞닿은 부분에 해당하는 오목점을 찾기 위하여 외곽선의 모든 픽셀들을 고려하고, 각 픽셀들이 외곽선의 오목한 부분인지의 여부를 판단하여야 한다. 따라서 외곽선이 나타난 근접 돼지 영상에 열림(opening) 연산[14]을 수행하여 잡음을 일부 제거한 후 외곽선에 해당하는 각 픽셀들을 반시계 방향으로 순차적으로 탐색한다. 이 때 탐색점과 전후로 일정한 간격(gap)을 갖는 외곽선 위의 두 개의 점을 인접점으로 결정하고, 두 개의 인접점과 탐색점을 연결함으로써 생성되는 삼각형의 면적을 계산하여 1차원의 시계열 데이터(오목점 후보 추출용)를 생성한다.

Fig. 3은 gap 값을 전체 외곽선 길이(l)의 일정 비율(설명을 위하여 임계값 th후보로 명명하고, Fig. 3은 th후보 = 10% 경우)로 설정한 후, 근접 돼지 외곽선의 픽셀(탐색점)별 생성된 삼각형의 면적을 나타내는 시계열 데이터이다. 양의 값을 가지는 경우는 삼각형이 근접 돼지의 내부에 생성되는 경우이며, 음의 값은 반대로 삼각형이 근접 돼지의 외부에 생성되는 경우이다. 즉, 데이터가 음의 값을 가지는 경우는 삼각형이 근접 돼지의 외부에 위치하므로 해당 픽셀이 근접 돼지 외곽선에서 오목한 부분이라 판단할 수 있다.

Fig. 3.Time-series data of touching-pigs by using the triangle area.

Fig. 3에서 음의 값을 갖는 데이터가 모두 외곽선의 오목한 부분이라 할 때, 이 중 두 돼지가 근접하여 만들어낸 오목점을 추출하여야 한다. 따라서 데이터의 값이 음수이고, 그 절댓값이 이웃하는 픽셀들의 데이터 절댓값보다 큰 값을 가져 시계열 데이터 내 하단부에 속하는 꼭짓점들을 오목점의 후보로 지정한다. 즉, 삼각형의 위치가 근접 돼지의 내부에서 외부로 또는 외부에서 내부로 이동하여 시계열 데이터에서 0을 가리키는 점들을 양 끝 기준으로 설정한 하단부 구간 내에서 가장 절댓값이 큰 꼭짓점을 선택하여 오목점의 후보로 지정한다.

오목점 후보 추출과 관련하여 마지막으로 언급할 부분은, gap 값을 적게 설정하면 근접 돼지가 만들어내는 오목점이 오목점 후보에 포함되겠지만 너무 많은 오목점 후보들이 추출될 수 있고, 반대로 gap 값을 증가시키면 오목점 후보들이 줄어들지만 근접 돼지가 만들어내는 오목점까지도 누락되는 경우가 발생할 수 있다. 즉, gap 값을 외곽선 길이의 적절한 비율(th후보)로 설정하여 오목점 후보를 추출한 후, 검증용 정보를 활용하여 후보들 가운데 경계선을 위한 오목점을 결정할 필요가 있다.

2.2 오목점 후보 검증

추출된 오목점의 후보들 중에는 근접 돼지가 만들어내는 오목점이 포함되지만, 돼지 몸체의 움직임과 근접 돼지의 형태, 근접 돼지의 모습을 추출하는 단계에서 발생하는 에러들로 인하여 후보들 가운데 어떠한 점이 오목점인지 정확히 판단하기는 어렵다. 따라서 오목점 후보 페어로 구분되는 외곽선의 길이(1차), 근접 돼지 중심점과 후보 페어 평균점과의 거리(2차), 그리고 구분되는 근접 돼지의 가로/세로 비율과 면적(3차)을 이용하여 단계적으로 검증함으로써 최종 오목점을 판단한다.

효율적인 오목점 후보 검증을 위하여 2.1에서 생성된 삼각형 면적에 대한 시계열 데이터로부터 최하단에 위치한 오목점 후보의 우선 순위를 높게 설정하고, 오목점 후보들을 두 개씩 선택하여 가능한 모든 페어를 우선 순위의 합이 높은 순서대로 정렬한다. 후보 검증 시에는 우선 순위의 합이 높은 페어부터 선택하여 차례대로 검증하고, 각 검증 단계를 거친 페어가 최종 오목점이라 판단되면 다른 페어의 추가 검증은 시행하지 않는다.

우선 순위에 따라 선택된 오목점 페어는 근접 돼지 외곽선을 두 개로 구분한다. 이 때 구분되는 외곽선 길이의 차이를 특정 길이와 비교함으로써 오목점 페어를 1차 검증한다. 즉, 구분되는 외곽선 길이의 차이가 전체 외곽선 길이(l)의 임계값(th검증1) 비율 이하인 경우를 1차 검증 기준으로 설정하고, 이를 통과한 해당 페어에 대하여 2차 검증을 시행한다.

2차 검증은 오목점 페어 간 평균점과 근접 돼지의 중심점 간 거리를 이용하며, 검증 기준은 계산된 거리가 전체 외곽선 길이(l)의 임계값(th검증2) 비율 이하인 경우로 설정한다. 이를 위하여 먼저 근접 돼지의 중심점을 검출하여야 하는데, 일반적으로 중심점을 검출하는 경우에는 무게중심(center of mass)을 계산하는 방법을 사용한다. 그러나 다양한 모습을 갖는 근접 돼지에 무게중심 방법을 적용할 경우 돼지의 몸체 내부가 아닌 몸체 외부에 중심점이 검출되기도 하며, 몸체 내부에 검출되더라도 근접 돼지의 경계 구분에 사용하기 어려울 정도로 의도한 바와 다른 위치에 중심점이 검출되는 경우가 있다. 따라서 본 논문에서는 무게중심을 이용한 방법을 사용하지 않고, MAT를 이용하여 근접 돼지의 골격을 추출한 뒤 골격에 위치한 적절한 점을 중심점으로 검출하는 방법을 제안한다.

즉, MAT를 이용하여 Fig. 4와 같이 한 픽셀 두께의 얇은 선으로 이루어진 근접 돼지의 골격을 획득한다. 획득한 골격은 단일 선 혹은 여러 개의 가지를 가진 선의 형태를 가지며, 몇 개의 “시작점(start-point)”과 “분기점(branch-point)”들을 갖는다. 골격상의 중심점을 검출하기 위해서는 각 시작점으로부터 골격을 따라 동시에 이동한다. 이동 중 분기점을 만나는 경우, 먼저 분기점에 도달한 이동들은 탐색이 중지되지만, 마지막으로 분기점에 도달한 이동은 분기점의 역할이 종료되었으므로 중심점 탐색을 위한 이동을 계속한다. 최종적으로 이동하는 점들이 골격 위에서 만나게 되면, 바로 이 점이 근접 돼지의 중심점으로서 검출된다. Fig. 5은 Fig. 4로부터 중심점을 검출하는 과정을 설명한다.

Fig. 4.Skeleton of touching-pigs using MAT.

Fig. 5.Finding a center-point of the skeleton.

Fig. 5의 우측 그림과 같이 검출된 중심점은 두 돼지의 근접 부분에 위치한다. 2차 검증에서는 페어를 이루는 두 오목점 후보의 x좌표와 y좌표를 각각 더한 후 절반으로 나누어 페어 간 평균점을 계산하고, 앞서 검출한 근접 돼지의 중심점과 페어 간 평균점의 유클리디언 거리를 계산한다. 만약 계산된 거리가 전체 외곽선 길이(l)의 임계값(th검증2) 비율 이내에 해당하는 경우 2차 검증은 통과하고 최종 검증을 시행한다.

최종 검증 단계인 3차 검증에서는 오목점 페어로 구분되는 근접 돼지의 가로/세로 비율과 면적을 이용한다. 근접 돼지 외곽선 상에 두 오목점 후보 간 선을 연결하면 두 돼지로 임의 구분이 가능하다. 이때 구분된 두 돼지를 각각 포함하는 최소 사각형을 Fig. 6과 같이 그린 후, 두 사각형의 가로/세로 비율과 면적을 통상의 한 마리 돼지 가로/세로 비율 및 면적과 비교한다. 만약 오차가 임계값(th검증3) 비율 이내인 경우 해당 페어를 최종 오목점으로 결정한다. 즉, 해당 페어가 세 단계의 검증을 통과하면 남은 오목점 후보 페어에 대해서는 추가 검증 없이 두 후보를 최종 오목점으로 결정한다(Fig. 7 참조).

Fig. 6.The minimum rectangle of each pig separated by candidate concave-points pair.

Fig. 7.Final concave-points for touching-pigs.

앞서 언급한 세 단계의 검증이 어떠한 근접 상황에서도 오목점 페어를 검출 가능한 것은 아니다. 즉, 크기가 매우 상이한 두 돼지가 근접한 상황에서는 세 단계의 검증을 통과하는 오목점 페어가 없는 경우가 발생할 수 있다. 따라서 해당 경우에는 오목점 후보 페어 중 우선 순위가 가장 높은 페어를 최종 오목점으로 결정한다.

2.3 에지 정보를 이용한 경계선 검출

최종 오목점이 결정되면, 이를 이용하여 탐색 영역(search-area)내의 에지 정보를 추출하고, 최종적으로 근접 돼지를 구분할 수 있는 경계선을 검출한다. 에지 정보를 추출하기 위하여 먼저 근접 돼지의 외곽선이 나타난 이진 영상을 원 영상과 병합하여 근접 돼지의 전경이 분리된 그레이 영상을 생성한다. 이렇게 생성된 그레이 영상에 캐니 연산자[14]를 사용하여 에지 정보를 추출한다. 캐니 연산자를 사용하면 라플라스나 소벨 등의 연산자를 사용하는 방법에 비해 에지를 잘 찾아내며 불필요한 노이즈를 제거할 수 있다. 이후 남은 윤곽선 정보에 대해 최종 경계선 추출을 위한 허프 변환(Hough transform)[14]을 적용한다(Fig. 8 참조).

Fig. 8.Segmentation of touching-pigs using final concave-points and edge information.

 

3. 실험 결과

3.1 실험 환경

본 실험을 위해 세종시에 위치한 돈사에서 약 3m 높이에 카메라를 설치하여 돈방 내 20마리 돼지들의 활동을 960×540 해상도와 초당 30 프레임 속도(30 frames per second : fps)의 RGB 영상으로 수집하였고, 실험은 3.5GHz의 Intel i5-4690 프로세서와 8GB RAM의 환경에서 수행하였다. 앞서 언급한대로 실시간 처리를 위하여 다운 샘플링된 입력 영상을 통해 GMM을 적용함으로써 근접 돼지의 전경을 정확히 분리하였다고 가정하고, 두 마리가 근접한 상황에 대한 세 개의 시퀀스를 사용하여 실험하였다. 사용한 시퀀스는 두 돼지의 머리가 서로 닿은 채 같은 방향을 바라보는 경우(Sequence 1)와 다른 방향을 바라보는 경우(Sequence 2), 하나의 돼지 몸체에 다른 돼지의 머리가 닿은 경우(Sequence 3)의 세 가지 유형을 대표한다. 또한 세 개의 시퀀스 모두 연속된 프레임에 대하여 근접 돼지의 전경이 배경으로부터 분리된 이진 영상으로 구성되며, 모든 시퀀스는 RGB 색 공간을 갖는 원 영상을 HSV 색 공간으로 변환하고 값을 조절하여 이진화함으로써 획득하였다.

The proposed algorithm for pig segmentation

3.2 근접 돼지 구분 결과

근접 돼지의 이진 영상은 매끄럽지 않은 외곽선을 가지고, 이는 오목점의 후보를 과다하게 지정하며 MAT를 적용하는 경우 불필요한 정보를 제공할 수 있다. 따라서 외곽선을 고르게 하기 위하여 열림 연산을 수행함으로써 일부 잡음을 제거하였다. 잡음이 제거된 이진 영상으로부터 돼지의 2차원 외곽선 데이터를 추출한 후, 데이터의 각 픽셀들을 외곽선을 따라 반시계 방향으로 탐색하였다. 이 때 탐색점과 일정한 간격을 갖는 외곽선 위의 인접점을 탐색점의 전후에서 결정하였으며, 전체 외곽선의 길이에 대한 간격(gap)의 비율은 th후보 = 10%로 설정하였다. 탐색점과 두 개의 인접점을 연결함으로써 생성되는 삼각형의 면적을 탐색 순서에 따라 1차원의 시계열 데이터로 표현하였으며, 이를 해석하여 오목점 후보를 추출하였다.

오목점의 후보 검증을 위하여 시계열 데이터의 모양에 따라 우선순위를 설정한 후, 우선순위가 높은 순서대로 모든 가능한 페어를 정렬하였다. 검증용 임계값은 th검증1 = 10%, th검증2 = 10%, th검증3 = 20%로 설정하였으며, 우선순위가 높은 페어부터 차례대로 선택하여 해당 페어로 구분되는 외곽선의 길이를 이용한 1차 검증을 시행하였다. 오목점의 후보를 2차 검증하기 위하여 MAT를 이용하여 근접 돼지의 골격을 추출하였으며, 추출한 골격을 이용하여 근접 돼지의 중심점을 검출하였다. 검출한 근접 돼지 중심점과 페어 간 평균점의 거리를 이용하여 2차 검증 후, 임의 구분된 각 돼지의 가로/세로 비율과 면적을 이용한 3차 검증을 통해 근접 돼지가 만들어 내는 최종 오목점을 검출하였다. 마지막으로 그레이 영상에 캐니 연산자를 사용하여 추출한 에지 정보를 이용하여 근접 돼지의 경계를 최종 구분하였다.

Fig. 9, 10, 11은 세 개의 근접 상황 시퀀스에 대하여 각각 OpenCV로 구현된 워터쉐드 기법[14]과 제안 방법을 사용한 결과를 보여 준다. 워터쉐드 기법은 그레이 영상을 사용하는 방법과 이진 영상을 사용하는 방법이 있으나, 두 방법 모두 연속된 비디오 프레임에서 개별 돼지를 지속적으로 식별하는데 어려움이 있음을 확인할 수 있다. 반면, 제안 방법을 적용한 경우는 세 시퀀스 모두 개별 돼지를 정확히 식별할 수 있음을 확인하였다.

Fig. 9.Results of Sequence 1. (a) gray Watershed method, (b) binary Watershed method, and (c) proposed method.

Fig. 10.Results of Sequence 2. (a) gray Watershed method, (b) binary Watershed method, and (c) proposed method.

Fig. 11.Results of Sequence 3. (a) gray Watershed method, (b) binary Watershed method, and (c) proposed method.

워터쉐드 기법과 제안 방법을 세 시퀀스에 각각 적용한 결과를 수치화하기 위하여 Table 1에 정확도의 평균을 비교하였다. 정확도를 측정하기 위하여 원 영상으로부터 각 프레임에 대한 Ground-truth를 생성하였으며, 정확도는 워터쉐드 혹은 제안 방법을 사용한 결과 분리된 개별 돼지의 총 픽셀 수를 Ground-truth가 나타내는 개별 돼지의 총 픽셀 수로 나누어 계산하였다(그레이 영상을 사용하는 워터쉐드의 경우 심한 과분할 때문에 정확도를 수치화하기 어려워, Table 1에는 이진 영상을 사용한 워터쉐드 기법만을 비교). 또한, 제안 방법에서는 열림 연산의 수행 과정이 포함되므로 Ground-truth에도 동일한 열림 연산을 적용하여 정확도를 측정하였다. 실험 결과 세 시퀀스 모두 제안 방법을 적용하여 근접 돼지를 분리한 결과가 육안으로도 정확히 분리되고, 워터쉐드 기법을 적용한 결과와 비교하였을 때 분리 정확도가 수치적으로도 매우 높음을 확인할 수 있었다.

Table 1.The comparison of accuracy

 

4. 결 론

본 논문에서는 돈사 감시 카메라 환경에서 돼지 자동 모니터링을 위한 근접 돼지 분리 방법을 제안 하였다. 즉, 20마리의 돼지가 사육되는 혼잡한 돈방의 천장에 설치된 카메라로부터 수집한 영상으로부터 움직임을 갖는 돼지의 영역이 두 마리의 근접 돼지인 경우 오목점과 에지 정보를 이용하여 근접 돼지를 개별 돼지로 분리하였다.

실험 결과, 개별 돼지에 대한 별도의 표식 없이 2차원의 근접 돼지 “외곽선” 데이터를 1차원의 시계열 데이터로 해석함으로써 근접 돼지가 만들어내는 오목점을 검출하였다. 또한 검출된 오목점 근처의 에지 정보를 이용하여 경계선을 찾으면 기존의 “영역” 데이터를 이용하여 근접 돼지를 구분하는 방법보다 정확한 구분이 가능함을 확인하였다. 향후 연구로, 제안 방법을 확장하여 세 마리 이상의 근접 돼지를 분리하고 최종적으로 개별 돼지를 24시간 자동 추적하는 연구를 진행할 계획이다.

References

  1. D. Berckmans, Automatic On-line Monitoring of Animals by Precision Livestock Farming, Livestock Production and Society, Wageningen Academic Publishers, Wageningen, Gelderland, 2006.
  2. J. Lee, S. Kim, S. Lee, H. Choi, and J. Jung, "A Study on the Necessity and Construction Plan of the Internet of Things Platform for Smart Agriculture," Journal of Korea Multimedia Society, Vol. 17, No. 11, pp. 1313-1324, 2014. https://doi.org/10.9717/kmms.2014.17.11.1313
  3. Y. Chung, H. Kim, H. Lee, D. Park, T. Jeon, and H. Chang, "A Cost-Effective Pigsty Monitoring System Based on a Video Sensor," KSII Transactions on Internet and Information Systems, Vol. 8, No. 4, pp. 1481-1498, 2014. https://doi.org/10.3837/tiis.2014.04.018
  4. J. Lee, L. Jin, D. Park, and Y. Chung, "Automatic Recognition of Aggressive Pig Behaviors using Kinect Depth Sensor," Sensors, Vol. 16, No. 5, pp. 631, 2016. https://doi.org/10.3390/s16050631
  5. S. Zuo, L. Jin, Y. Chung, and D. Park, "An Index Algorithm for Tracking Pigs in Pigsty," Proceeding of International Conference on Information Technology and Management Science, pp. 797-803, 2014.
  6. J. Jover, M. Alcaniz-Raya, V. Gomez, S. Balasch, J. Moreno, V. Colomer, and A. Torres, "An Automated Colour-based Computer Vision Algorithm for Tracking the Position of Piglets," Spanish Journal of Agricultural Research, Vol. 7, pp. 535-549, 2009. https://doi.org/10.5424/sjar/2009073-438
  7. M. Kashiha, C. Bahr, S. Ott, C. Moons, T. Niewold, F. Odberg, and D. Berckmans, "Automatic Identification of Marked Pigs in a Pen using Image Pattern Recognition," Computers and Electronics in Agriculture, Vol. 93, pp. 111-120, 2013. https://doi.org/10.1016/j.compag.2013.01.013
  8. P. Ahrendt, T. Gregersen, and H. Karstoft, "Development of a Real-Time Computer Vision System for Tracking Loose-Housed Pigs," Computers and Electronics in Agriculture, Vol. 76, pp. 169-174, 2011. https://doi.org/10.1016/j.compag.2011.01.011
  9. M. Ju, H. Baek, J. Sa, H. Kim, Y. Chung, and D. Park, "Real-Time Pig Segmentation for Individual Pig Monitoring in a Weaning Pig Room," Journal of Korea Multimedia Society, Vol. 19, No. 2, pp. 215-223, 2016. https://doi.org/10.9717/kmms.2016.19.2.215
  10. P. Geetha, R. Nidhya, A Kumar, and K. Selvi, "Cell Segmentation and NC Ratio Analysis for Biopsy Images using Marker Controlled Watershed Algorithm," Proceeding of International Conference on Green Computing, Communication, and Electrical Engineering, pp. 1-5, 2014.
  11. L. Vicent and P. Soille, "Watershed in Digital Space: An Efficient Algorithm based on Immersion Simulation," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 13, No. 6, pp. 583-598, 1991. https://doi.org/10.1109/34.87344
  12. K. Wang, Y. Liang, X. Xing, and R. Zhang, "Target Detection Algorithm Based on Gaussian Mixture Background Subtraction Model," Proceeding of the Chinese Intelligent Automation Conference, pp. 439-447, 2015.
  13. S. Hatwar and A. Wanare, "GMM based Image Segmentation and Analysis of Image Restoration Techniques," International Journal of Computer Applications, Vol. 109, No. 16, pp. 45-50, 2015. https://doi.org/10.5120/19276-1036
  14. G. Bradski and A. Kaehler, Learning Open CV: Computer Vision with the OpenCV Library, O'Reilly Media, Sebastopol, California, 2008.
  15. H. Baek, M. Ju, J. Sa, Y. Chung, and D. Park, "Detection of Pig Boundary using Contour Information," Proceeding of the IEIE Summer Conference, pp. 2557-2560, 2016.