• 제목/요약/키워드: Low resolution face image

검색결과 37건 처리시간 0.034초

PDA 디바이스에서 실시간 강의 영상 재생을 위한 학습 영역 추출 시스템 설계 및 구현 (A Design and Implementation of Study Region Detection System for Real-Time Remote Lecture Video Browsing on PDA Devices)

  • 한은영;서정희;박흥복
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 춘계종합학술대회
    • /
    • pp.619-622
    • /
    • 2007
  • PDA는 비교적 작은 크기로 인하여 휴대하기 쉽고 간편하다는 장점이 있어 학습자에게 언제, 어디서나 학습할 수 있는 기회를 제공한다. 그러나 작은 스크린 사이즈로 인하여 동영상에서 제공되는 학습 내용을 정확하게 인식하기에는 많은 제약이 있다. 본 논문에서는 이러한 PDA의 문제점을 해결하기 위해 관심 영역(ROI)의 추출(Detection)과 이미지 스케일링(Image Scaling) 기법을 이용하여 학습에 필요한 영역을 중심으로 강의 영상의 크기를 적응적으로 변환하고 전송하는 원격 강의 시스템을 제안한다. 제안된 시스템은 802.11b 무선 네트워크상에서 실험을 통해 기존의 방법에서 보다 최적화된 강의 영상을 제공할 수 있음을 증명한다.

  • PDF

개인아바타 자동 생성을 위한 얼굴 구성요소의 추출에 관한 연구 (A Study on Face Component Extraction for Automatic Generation of Personal Avatar)

  • 최재영;황승호;양영규;황보택근
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.93-102
    • /
    • 2005
  • 최근 네티즌들은 사이버 공간에서 자신의 정체성을 나타내기 위해 가상 캐릭터 '아바타(Avatar)'를 많이 이용하고 있으며, 더 나아가 사용자들은 좀 더 자신과 닮은 아바타를 요구하고 있다. 본 논문은 자동 아바타 생성의 기반기술인 얼굴 영역과 구성요소의 추출에 대한 연구로써 얼굴 구성 요소의 추출은 ACM과 에지의 정보를 이용하였다. 또한 얼굴 영역의 추출은 얼굴 영역의 면적 변화량을 ACM의 외부에너지로 사용하여 저해상도의 사진에서 발생하는 조명과 화질의 열화에 의한 영향을 감소시킬 수 있었다. 본 연구의 결과로 얼굴영역 추출 성공률은 $92{\%}$로 나타났으며, 얼굴 구성 요소의 추출은 $83.4{\%}$의 성공률을 보였다. 본 논문은 향후 자동 아바타 생성 시스템에서 얼굴 영역과 얼굴 구성요소를 정확하게 추출함으로써 패턴 부위별 특징처리가 가능하게 될 것으로 예상된다.

  • PDF

의상 특징 기반의 동일인 식별 (Person Identification based on Clothing Feature)

  • 최유주;박선미;조위덕;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2010
  • 비전 기반의 감시 시스템에서 동일인의 식별은 매우 중요하다. 감시 시스템에서 주로 사용되는 CCTV 카메라의 영상은 상대적으로 낮은 해상도를 가지므로 얼굴 인식 기법을 이용하여 동일인을 식별하기는 어렵다. 본 논문에서는 CCTV 카메라 영상에서 의상 특징을 이용하여 동일인을 식별하는 알고리즘을 제안한다. 건물의 주출입구에서 출입자가 인증을 받을 때, 의상 특징이 데이터베이스에 저장된다. 그 후, 건물 내에서 촬영한 영상에 대해 배경 차감 및 피부색 발견 기법을 이용하여 의상 영역을 발견한다. 의상의 특징 벡터는 텍스처와 색상 특징을 이용하여 구성한다. 텍스처 특징은 지역적 에지 히스토그램을 이용하여 추출된다. 색상 특징은 색상 지도의 옥트리 기반 양자화(octree-based quantization)를 이용하여 추출된다. 건물 내의 촬영 영상이 주어질 때, 데이터베이스에서 의상 특징이 가장 유사한 사람을 발견함으로써 동일인을 식별하며, 의상 특징 벡터 간의 유사도 측정을 위해서는 유클리디안 거리(Euclidean distance)를 사용한다. 실험 결과, 얼굴인식 기법이 최대 43%의 성공률을 보인 데 비해, 의상 특징을 이용하여 80%의 성공률로 동일인을 식별하였다.

실시간 응용을 위한 웨이블릿 변환 기반의 얼굴 검출 (Wavelet Transform-based Face Detection for Real-time Applications)

  • 송해진;고병철;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권9호
    • /
    • pp.829-842
    • /
    • 2003
  • 최근 화상 회의, 화상 전화, 모바일 환경에서의 화상 통신, 얼굴 인식을 이용한 보안 시스템 등의 상업화에 힘입어 비디오에서의 얼굴 검출 및 추적 기술은 눈부신 발전을 이룩하였다. 또한, 얼굴 요소 검출은 요소 그 자체뿐 아니라 정화한 얼굴 영역 검출을 위한 필수 단계로서 중요한 연구 주제가 되고 있다. 그러나 영상에 나타난 복잡한 배경과 카메라 조작 및 조명에 의한 색상 왜곡 그리고 다양한 조명 조건 둥은 얼굴 검출 및 추적, 요소 검출에 있어 여전히 큰 장애가 되고 있다. 이에 따라, 본 논문에서는 실시간 화상 통신을 위한 새로운 얼굴 영역 검출 및 추적 알고리즘과 검출된 얼굴 영역에서 효과적으로 눈 영역을 검출할 수 있는 알고리즘을 제안한다. 제안하는 얼굴 검출 알고리즘은 복잡한 배경과 다양한 조명 조건에 관계없이 얼굴을 검출하고 추적하기 위해 웨이블릿 변환된 세 종류의 부 영역을 이용하여 얼굴 형판을 생성하고 웨이블릿 변환된 입력 영상과의 유사도를 측정하여 얼굴을 검출한다. 특히 다양한 조명 조건을 극복하기 위해 최소-최대 정규화와 히스토그램 평활화를 혼합 적용하여 매우 밝거나, 매우 어두운 영상에서의 얼굴 오 검출 및 놓침을 줄일 수 있었으며 세 가지 크기의 얼굴 형판을 이용함으로써 입력 영상에 존재하는 다양한 크기의 얼굴도 검출할 수 있었다. 또한 효과적인 얼굴 추적 알고리즘을 통해 다음 프레임에서의 얼굴 위치를 예측하고 예측된 얼굴 위치를 중심으로 탐색 영역을 정해 형판 정합을 수행함으로써 얼굴 검출률을 높이면서 수행 시간도 단축시킬 수 있었다. 수직, 수평방향 투영을 이용한 합리적인 눈 검출 알고리즘은 어두운 조명이나 부정확한 얼굴 영역에서도 만족스러운 결과를 보여주었다.26$이었으며, 점차 감소, 다시 증가하여 담금 10일에는 $3.42{\sim}3.69$이었다. 시험구별로는 KKR이 가장 낮았다. 총산은 담금 1일에 $0.29{\sim}0.82%$였으며 담금 6일에 $1.75{\sim}2.53%$로 최고값을 나타내었으며 그 후 감소하여 담금 10일에는 $1.61{\sim}2.34%$였다. 시험구간에는 KKR, SKR이 비교적 높은 값을 나타내었다. 무기질 함량은 발효기간이 경과할수록 증하였고 Ca는 $2.95{\sim}36.76$, Cu는 $0.01{\sim}0.14$, Fe는 $0.71{\sim}3.23$, K는 $110.89{\sim}517.33$, Mg는 $34.78{\sim}122.40$, Mn은 $0.56{\sim}5.98$, Na는 $0.19{\sim}14.36$, Zn은 $0.90{\sim}5.71ppm$을 나타내었으며, 시험구별로 보면 WNR, BNR구가 Na만 제외한 다른 무기성분 함량이 가장 높았다.O to reduce I/O cost by reusing data already present in the memory of other nodes. Finally, chunking and on-line compression mechanisms are included in both models. We demonstrate that we can obtain significantly high-performance

광각 및 협각 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by Wide and Narrow View Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제28권12C호
    • /
    • pp.1239-1249
    • /
    • 2003
  • 시선 위치 추적이란 현재 사용자가 쳐다보고 있는 위치를 컴퓨터 시각 인식 방법을 이용하여 파악하는 연구이다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라를 이용하여 사용자의 얼굴 및 눈동자 움직임을 추적하였다. 그러나 이러한 경우, 광각 카메라 내에 포함된 눈동자 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하지 못하는 문제점이 있었다. 그러므로 이 논문에서는 얼굴 영상을 취득하기 위한 광각 카메라 및 눈 영역을 확대하여 취득하는 협각 카메라, 즉 2개의 카메라를 이용하여 시선 위치추적 시스템을 구현하였다. 또한, 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라에서 추출된 얼굴 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 실험자가 눈동자는 고정으로 하고 얼굴만 움직여서 쳐다보는 경우에 약 3.1cm, 흐리고 얼굴 및 눈동자를 같이 움직여서 쳐다보는 경우에 약 3.57cm의 최소 자승 에러성능을 나타냈다. 처리 속도도 Pentium-IV 1.8 GHz에서 약 30ms 이내의 처리 속도를 나타냈다.

Improving Field Crop Classification Accuracy Using GLCM and SVM with UAV-Acquired Images

  • Seung-Hwan Go;Jong-Hwa Park
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.93-101
    • /
    • 2024
  • Accurate field crop classification is essential for various agricultural applications, yet existing methods face challenges due to diverse crop types and complex field conditions. This study aimed to address these issues by combining support vector machine (SVM) models with multi-seasonal unmanned aerial vehicle (UAV) images, texture information extracted from Gray Level Co-occurrence Matrix (GLCM), and RGB spectral data. Twelve high-resolution UAV image captures spanned March-October 2021, while field surveys on three dates provided ground truth data. We focused on data from August (-A), September (-S), and October (-O) images and trained four support vector classifier (SVC) models (SVC-A, SVC-S, SVC-O, SVC-AS) using visual bands and eight GLCM features. Farm maps provided by the Ministry of Agriculture, Food and Rural Affairs proved efficient for open-field crop identification and served as a reference for accuracy comparison. Our analysis showcased the significant impact of hyperparameter tuning (C and gamma) on SVM model performance, requiring careful optimization for each scenario. Importantly, we identified models exhibiting distinct high-accuracy zones, with SVC-O trained on October data achieving the highest overall and individual crop classification accuracy. This success likely stems from its ability to capture distinct texture information from mature crops.Incorporating GLCM features proved highly effective for all models,significantly boosting classification accuracy.Among these features, homogeneity, entropy, and correlation consistently demonstrated the most impactful contribution. However, balancing accuracy with computational efficiency and feature selection remains crucial for practical application. Performance analysis revealed that SVC-O achieved exceptional results in overall and individual crop classification, while soybeans and rice were consistently classified well by all models. Challenges were encountered with cabbage due to its early growth stage and low field cover density. The study demonstrates the potential of utilizing farm maps and GLCM features in conjunction with SVM models for accurate field crop classification. Careful parameter tuning and model selection based on specific scenarios are key for optimizing performance in real-world applications.

실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System using Real-time Active Vision Camera)

  • 박강령
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권12호
    • /
    • pp.1228-1238
    • /
    • 2003
  • 이 논문에서는 컴퓨터 시각 인식 방법에 의해 모니터 상에 사용자가 쳐다보고 있는 시선 위치를 파악하기 위한 새롭고 실용적인 방법을 제안한다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라 시스템을 주로 많이 이용하였다. 그러나 이러한 경우 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하기 어려운 문제점이 있다. 그러므로 이 논문에서는 광각 카메라(얼굴의 움직임에 의한 시선 위치 추적용) 및 눈 영역을 확대하여 취득하는 협각 카메라(눈동자 움직임에 의한 시선 위치 추적용), 즉 이중 카메라를 이용하여 시선 위치 추적 시스템을 구현하였다. 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라로부터 추출된 눈 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있으며, 눈 특징점을 보다 빠르고 정확하게 추출하기 위해 이중 적외선 조명을 사용하였다. 실험 결과, 본 논문에서는 실시간으로 동작하는 시선 위치 추적 시스템을 구현할 수 있었으며, 이때 얼굴 및 눈동자 움직임을 모두 고려하여 계산한 모니터상의 시선 위치 정확도는 약 3.44cm의 최소 자승 에러성능을 나타냈다.