• 제목/요약/키워드: vision camera

검색결과 1,372건 처리시간 0.03초

백내장수술 안에서 열화상카메라를 이용한 안구표면 온도의 변화 (Thermographic Assessment on Temperature Change of Eye Surface in Cataract Surgery Observation)

  • 박창원;안영주;김효진
    • 대한시과학회지
    • /
    • 제20권4호
    • /
    • pp.497-504
    • /
    • 2018
  • 목적 : 백내장 환자를 대상으로 수술 전과 후의 안구표면의 온도변화 양상을 열화상카메라의 서모그래피를 이용하여 연구 하고자 하였다. 방법 : 본 연구는 백내장 수술을 받은 환자 50-79세까지 75명 75안의 환자 군을 대상으로 하였다. 과거에 굴절교정수술, 각막관련 수술을 받은 자와 콘택트렌즈를 사용하는 자, 눈물관 이상자, 전신질환 치료 약물을 복용하는 자 등 눈물분비와 눈물막에 영향을 줄 수 있는 자는 연구 대상자에서 제외하였고 눈물막파괴시간 검사(Tear Break Up Time, BUT), 쉬르머 검사(Schirmer's Test), 맥모니테스트(Mcmonnies questionnaire)를 시행한 후 열화상카메라(Cox CX series, Answer., Korea)를 이용하여 안구표면의 온도변화를 실시간으로 측정하였다. 결과 : 전체 대상자의 술 전 안구표면 온도는 $35.20{\pm}0.54^{\circ}C$이었고 술 후에는 $35.30{\pm}0.53^{\circ}C$로 표면온도가 상승하였으나 유의한 차이를 보이지 않았다. 안구표면 온도변화는 술전에서 $-0.12{\pm}0.08{\Delta}$ ($^{\circ}C/sec$)에서 술 후 $-0.18{\pm}0.07{\Delta}$ ($^{\circ}C/sec$)로 통계학적으로 유의한 결과를 나타냈다. 연령 별 비교에서는, 50 대군은 백내장 술 전 대상자의 안구표면 온도변화가 $-0.14{\pm}0.09{\Delta}$ ($^{\circ}C/sec$)에서 $-0.19{\pm}0.05{\Delta}$ ($^{\circ}C/sec$)으로 나타났고 60 대군에서는 $-0.12{\pm}0.08{\Delta}$ ($^{\circ}C/sec$)에서 $-0.15{\pm}0.07{\Delta}$ ($^{\circ}C/sec$)으로 나타났으며 70 대군에서는 술 전 대상자의 안구표면 온도변화는 $-0.12{\pm}0.08{\Delta}$($^{\circ}C/sec$)에서 $-0.18{\pm}0.07{\Delta}$($^{\circ}C/sec$)으로 전 연령에서 모두 유의한 안구표면 온도변화를 보였다. 결론 : 백내장 술 후에는 안구건조증 평가지표가 모두 감소하였고 안구표면 온도변화가 유의함을 보였다. 안구표면의 서모그래피 기술은 비침습적으로 안구건조증을 평가하는데 용이하였고 객관적으로 수치화할 수 있는 장점이 있어 다양한 안구건조증 연구에 활용 될 것으로 기대된다.

로봇 인터페이스 활용을 위한 가속도 센서 기반 제스처 인식 (Accelerometer-based Gesture Recognition for Robot Interface)

  • 장민수;조용석;김재홍;손주찬
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.53-69
    • /
    • 2011
  • 로봇 자체 또는 로봇에 탑재된 콘텐츠와의 상호작용을 위해 일반적으로 영상 또는 음성 인식 기술이 사용된다. 그러나 영상 음성인식 기술은 아직까지 기술 및 환경 측면에서 해결해야 할 어려움이 존재하며, 실적용을 위해서는 사용자의 협조가 필요한 경우가 많다. 이로 인해 로봇과의 상호작용은 터치스크린 인터페이스를 중심으로 개발되고 있다. 향후 로봇 서비스의 확대 및 다양화를 위해서는 이들 영상 음성 중심의 기존 기술 외에 상호보완적으로 활용이 가능한 인터페이스 기술의 개발이 필요하다. 본 논문에서는 로봇 인터페이스 활용을 위한 가속도 센서 기반의 제스처 인식 기술의 개발에 대해 소개한다. 본 논문에서는 비교적 어려운 문제인 26개의 영문 알파벳 인식을 기준으로 성능을 평가하고 개발된 기술이 로봇에 적용된 사례를 제시하였다. 향후 가속도 센서가 포함된 다양한 장치들이 개발되고 이들이 로봇의 인터페이스로 사용될 때 현재 터치스크린 중심으로 된 로봇의 인터페이스 및 콘텐츠가 다양한 형태로 확장이 가능할 것으로 기대한다.

장애물 인식 지능을 갖춘 자율 이동로봇의 구현 (Implementation of a Self Controlled Mobile Robot with Intelligence to Recognize Obstacles)

  • 류한성;최중경
    • 대한전자공학회논문지SP
    • /
    • 제40권5호
    • /
    • pp.312-321
    • /
    • 2003
  • 본 논문은 장애물을 인식하고 회피하면서 목적지까지 자율적으로 이동할 수 있는 로봇을 구현한 논문이다. 우리는 본 논문에서 영상처리보드의 구현이라는 하드웨어적인 부분과 자율 이동로봇을 위한 영상궤환 제어라는 소프트웨어의 두 가지 결과를 나타내었다. 첫 번째 부분에서, 영상처리를 수행하는 제어보드로부터 명령을 받는 로봇을 나타내었다. 우리는 오랫동안 CCD카메라를 탑재한 자율 이동로봇에 대하여 연구해왔다. 로봇의 구성은 DSP칩을 탑재한 영상보드와 스텝모터 그리고 CCD카메라로 구성된다. 시스템 구성은 이동로봇의 영상처리 보드에서 영상을 획득하고 영상처리 알고리즘을 수행하고 로봇의 이동경로를 계산한다. 이동로봇에 탑재된 CCD카메라에서 획득한 영상 정보는 매 샘플링 시간마다 캡쳐한다. 화면에서 장애물의 유무를 판별한 후 좌 혹은 우로 회전하여 장애물을 회피하고 이동한 거리를 Feedback하는 시스템을 구현하여 초기에 지정한 목표지점가지 로봇이 갈 수 있도록 간략한 경로를 계획하여 절대좌표를 추적해 나가는 알고리즘을 구현한다. 이러한 영상을 획득하고 알고리즘을 처리하는 영상처리 보드의 구성은 DSP (TMS320VC33), ADV611, SAA7111, ADV7176A, CPLD(EPM7256ATC144), SRAM 메모리로 구성되어 있다. 두 번째 부분에서는 장애물을 인식하고 회피하기 위하여 두 가지의 영상궤환 제어 알고리즘을 나타낸다. 첫 번째 알고리즘은 필터링, 경계검출 NOR변환, 경계치 설정 등의 영상 전처리 과정을 거친 영상을 분할하는 기법이다. 여기에서는 Labeling과 Segmentation을 통한 pixel의 밀도 계산이 도입된다. 두 번째 알고리즘은 위와 같이 전처리된 영상에 웨이브렛 변환을 이용하여 수직방향(y축 성분)으로 히스토그램 분포를 20 Pixel 간격으로 스캔한다. 파형 변화에 의하여 장애물이 있는 부분의 히스토그램 분포는 거의 변동이 없이 나타난다. 이러한 특성을 분석하여 장애물이 있는 곳을 찾아내고 이것을 회피하기 위한 알고리즘을 세웠다. 본 논문은 로봇에 장착된 한 개의 CCD 카메라를 이용하여 장애물을 회피하면서 초기에 설정해둔 목적지가지 도달하기 위한 알고리즘을 제안하였으며, 영상처리 보드를 설계 및 제작하였다. 영상처리 보드는 일반적인 보드보다 빠른 속도(30frame/sec)와 해상도를 지원하며 압축 알고리즘을 탑재하고 있어서 영상을 전송하는 데에 있어서도 탁월한 성능을 보인다.

의상 특징 기반의 동일인 식별 (Person Identification based on Clothing Feature)

  • 최유주;박선미;조위덕;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2010
  • 비전 기반의 감시 시스템에서 동일인의 식별은 매우 중요하다. 감시 시스템에서 주로 사용되는 CCTV 카메라의 영상은 상대적으로 낮은 해상도를 가지므로 얼굴 인식 기법을 이용하여 동일인을 식별하기는 어렵다. 본 논문에서는 CCTV 카메라 영상에서 의상 특징을 이용하여 동일인을 식별하는 알고리즘을 제안한다. 건물의 주출입구에서 출입자가 인증을 받을 때, 의상 특징이 데이터베이스에 저장된다. 그 후, 건물 내에서 촬영한 영상에 대해 배경 차감 및 피부색 발견 기법을 이용하여 의상 영역을 발견한다. 의상의 특징 벡터는 텍스처와 색상 특징을 이용하여 구성한다. 텍스처 특징은 지역적 에지 히스토그램을 이용하여 추출된다. 색상 특징은 색상 지도의 옥트리 기반 양자화(octree-based quantization)를 이용하여 추출된다. 건물 내의 촬영 영상이 주어질 때, 데이터베이스에서 의상 특징이 가장 유사한 사람을 발견함으로써 동일인을 식별하며, 의상 특징 벡터 간의 유사도 측정을 위해서는 유클리디안 거리(Euclidean distance)를 사용한다. 실험 결과, 얼굴인식 기법이 최대 43%의 성공률을 보인 데 비해, 의상 특징을 이용하여 80%의 성공률로 동일인을 식별하였다.

스마트폰을 이용한 실시간 표면영상유속계 개발 (Development of a real-time surface image velocimeter using an android smartphone)

  • 류권규;황정근
    • 한국수자원학회논문집
    • /
    • 제49권6호
    • /
    • pp.469-480
    • /
    • 2016
  • 본 연구는 안드로이드 기반의 스마트폰을 이용한 실시간 표면영상유속계를 개발하는 것이다. 스마트폰이 내장한 카메라, GPS, 방향 센서, CPU를 활용하여, 실시간으로 현장에서 하천의 표면유속을 측정하는 것이다. 먼저, 스마트폰의 GPS를 이용하여 측정 현장의 위치를 파악하고, 경사계(방향 센서)를 활용하여 카메라와 촬영면의 기하적인 관계를 설정한다. 이 때 입력해야 할 유일한 변수는 수면과 카메라의 연직 높이뿐이다. 내장된 카메라로 정해진 시간만큼 동영상을 촬영한다. 촬영된 동영상을 개방 소스의 영상처리 라이브러리인 OpenCV를 이용하여 프레임별로 분할하고, 이를 시공간 영상 분석하여 하천 표면의 2차원 유속장을 추정한다. 시판되는 안드로이드 스마트폰에 적용하여 현장 시험한 결과 약 11초에 1회의 순간유속 측정 (1초간의 평균유속 측정)을 할 수 있어, 현장에서 즉각적으로 하천 수표면의 표면유속을 측정할 수 있었다. 또한 이 순간유속을 수십회 반복한 뒤 평균하여 시간평균유속을 구할 수 있었다. 개발된 시스템을 실험 수로에서 시험한 결과, 측정이 매우 효과적이며 편리하였다. 측정된 결과를 프로펠러 유속계에 의한 측정값과 비교한 결과, 최대 오차 13.9%, 평균적으로 10 % 이내의 오차로 실험 수로의 표면 유속을 측정할 수 있었다.

지능형 굴삭 로봇의 개발을 위한 로컬영역 3차원 모델링 센서 선정 및 현장 적용성 분석에 관한 연구 (A Study on the Selection and Applicability Analysis of 3D Terrain Modeling Sensor for Intelligent Excavation Robot)

  • 유현석;권순욱;김영석
    • 대한토목학회논문집
    • /
    • 제33권6호
    • /
    • pp.2551-2562
    • /
    • 2013
  • 2006년부터 국내에서는 운전자의 개입 없이 완전 자동화 방식으로 동작하는 지능형 굴삭 로봇을 개발하고 있다. 이러한 굴삭 로봇을 개발함에 있어 주변(로컬영역) 작업환경의 지형이나 이동 경로상의 장애물, 굴삭기에 접근하는 상차트럭 등의 객체를 정확하게 탐지하는 기술은 작업품질과 안전성 확보 측면에서 필수적으로 요구되는 핵심기술이다. 선진 외국에서는 토공 자동화 장비의 로컬영역 3차원 모델링을 위하여 광대역 3D 레이저 스캐너나 스테레오 비전 카메라와 같은 센서를 사용하여 주변 지형을 3차원으로 모델링하는 연구를 수행하였으나, 센싱 시스템 구축에 지나치게 높은 비용이 소요되거나 모델링 결과에 노이즈가 다수 발생하여 모델링 속도가 과다하게 소요되는 문제점이 있었다. 이 연구에서는 지능형 굴삭 로봇의 로컬영역 3차원 모델링을 위하여 현재까지 개발된 3차원 작업환경 모델링 센서의 기술 사양과 장단점을 분석하고, AHP 분석을 통하여 센서별 적용가능성을 분석한다. 또한 실제 토공사 작업현장의 현장실험을 통해 해당 센서의 3차원 모델링 품질과 정확성을 분석하고 지능형 굴삭 로봇의 로컬영역 3차원 모델링에 가장 적합한 센서 선정 및 현장 적용성을 검증하고자 한다.

가상 현실 게임 환경에서의 가상 손 제어를 위한 사용자 손 인식 방법 (A Method of Hand Recognition for Virtual Hand Control of Virtual Reality Game Environment)

  • 김부년;김종호;김태영
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.49-56
    • /
    • 2010
  • 본 논문에서는 사용자의 손을 인식하여 가상현실 게임 환경에서 가상의 손을 제어할 수 있는 방법을 제안한다. 카메라를 통해 획득한 영상을 통하여 사용자의 손 이동과 가리키는 방향에 대한 정보를 획득하고 이를 이용하여 가상의 손을 게임 화면에 나타낸다. 사용자의 손의 움직임은 가상의 손이 물건을 선택하고 옮기도록 하는 입력 인터페이스로 활용할 수 있다. 제안하는 방법은 비전 기반 손 인식 기법으로 먼저 RGB 컬러영역에서 HSV 컬러영역으로 입력영상을 변환하고 H, S 값에 대한 이중 임계값과 연결 요소 분석을 이용하여 손 영역을 분할한다. 다음으로 분할된 영역에 대하여 0, 1차 모멘트를 적용하고 이를 이용하여 손 영역에 대한 무게 중심점을 구한다. 구해진 무게중심점은 손의 중심에 위치하게 되며, 분할된 손 영역의 픽셀 집합 중 무게중심점으로부터 멀리 떨어진 픽셀들을 손가락의 끝점으로 인식한다. 마지막으로 무게중심점과 손 끝점에 대한 벡터를 통하여 손의 축을 구한다. 인식 안정성과 성능을 높이기 위하여 누적 버퍼를 이용한 떨림 보정과 경계상자를 이용한 처리 영역을 설정하였다. 본 논문의 방법은 기존의 비전 기술을 통한 손 인식 방법들에 비하여 별도의 착용 마커를 두지 않고 실시간으로 처리가 가능하다. 다양한 입력 영상들에 대한 실험 결과는 제안 기법으로 정확하게 손을 분할하고, 안정된 인식 결과를 고속으로 처리할 수 있음을 보여주었다.

스테레오 증강현실 홀로그래피에서의 삼차원 공간감 비교 (Comparison of 3D Space Perception for the Stereoscopic AR Holography)

  • 김민주;원광연
    • 한국HCI학회논문지
    • /
    • 제8권2호
    • /
    • pp.21-27
    • /
    • 2013
  • 최근 플로팅 방식의 홀로그램이 전시, 교육, 광고 등에 많이 활용되고 있다. 그중에 하프 미러 방식은 플로팅 홀로그램 중 가장 널리 쓰이는 방식 중 하나이다. 하지만 하프 미러 방식은 완벽한 3차원 홀로그램의 경험을 주지는 못한다. 이미지가 공중에 떠 있는 것처럼 보이기는 하나, 홀로그램의 궁극적 목표인 공간상에 가상 이미지를 표현하지는 못한다. 더욱이 하프 미러 후면에 실제 오브젝트를 두고 가상의 이미지와 결합하여 함께 보여주고자 할 때, 두 객체가 공간상에서 불일치되는 현상이 발생한다. 본 논문에서는 스테레오 증강현실 홀로그래피에서의 삼차원 공간감 비교를 위한 연구를 진행하였다. 3차원 공간에서의 정확하고 효율적인 증강현실 구현을 위하여 하프 미러 기반 홀로그래픽 시스템에 입체 영상기법을 적용하였다. 이는 하프 미러 필름 후면에 위치한 실제 오브젝트와 하프 미러를 통해 반사된 가상 이미지가 같은 공간상에 함께 어우러져 있는 것처럼 표현할 수 있다. 또한, 뎁스 카메라를 사용하여 사용자의 움직임에 맞게 가상 카메라를 조절함으로써 자연스러운 패러럭스 표현이 가능하도록 하였다. 본 연구에서 제안하는 방법은 별도의 추가 장치 없이, 단지 하프 미러 필름을 통해서 비교적 간단하고 정확하게 실제 객체의 위치와 같은 공간상에 증강된 시각 정보를 표현한다. 제안한 증강현실 홀로그래피에서의 삼차원 공간감에 대해 비교 실험을 한 결과, 2D 이미지를 적용한 경우 보다 3D 이미지 혹은, 3D 이미지와 사용자 인터랙션을 함께 적용한 경우, 사용자에게 3차원 공간감, 현실감(realism)을 더 정확하고 효과적으로 제공할 수 있음을 확인하였다.

  • PDF

컬러 영상에서 평균 이동 클러스터링과 단계별 영역 병합을 이용한 자동 원료 분류 알고리즘 (Automatic Classification Algorithm for Raw Materials using Mean Shift Clustering and Stepwise Region Merging in Color)

  • 김상준;곽준영;고병철
    • 방송공학회논문지
    • /
    • 제21권3호
    • /
    • pp.425-435
    • /
    • 2016
  • 본 논문에서는 카메라로부터 입력된 영상으로부터 쌀, 커피, 녹차 등 다양한 원료를 양품과 불량품으로 자동 분류하기 위한 분류 모델을 제안한다. 현재 농산물 원료 분류를 위해서 주로 숙달된 노동력의 육안 선택에 의존하고 있지만 작업시간이 길어질수록 반복적인 작업에 의해 분류 능력이 현저히 떨어지는 문제점이 있다. 노동력에 부분적으로 의존하는 기존 제품의 문제점을 해결하기 위해, 본 논문에서는 평균-이동 클러스터링 알고리즘과 단계별 영역 병합 알고리즘을 결합하는 비전기반 자동 원료 분류 알고리즘을 제안한다. 우선 입력 원료 영상에서 평균-이동 클러스터링 알고리즘을 적용하여 영상을 N개의 클러스터 영역으로 분할한다. 다음단계에서 N개의 클러스터 영역 중에서 대표 영역을 선택하고 이웃 영역들의 영역의 색상과 위치 근접성을 기반으로 단계별 영역 병합 알고리즘을 적용하여 유사한 클러스터 영역을 병합한다. 병합된 원료 객체는 RG, GB, BR의 2D 색상 분표로 표현되고, 병합된 원료 객체에 대해 색상 분포 타원을 만든다. 이후 미리 실험적으로 설정된 임계값을 적용하여 원료를 양품과 불량품을 구분한다. 다양한 원료 영상에 대해 본 논문에서 제안하는 알고리즘을 적용한 결과 기존의 클러스터링 알고리즘이나 상업용 분류 방법에 비해 사용자의 인위적 조작이 덜 필요하고 분류성능이 우수한 결과를 나타냄을 알 수 있었다.

UAV 기반 식생지수를 활용한 상록수 분포면적 분석 (The Analysis of Evergreen Tree Area Using UAV-based Vegetation Index)

  • 이근상
    • 지적과 국토정보
    • /
    • 제47권1호
    • /
    • pp.15-26
    • /
    • 2017
  • 도시화에 따른 녹지의 감소로 서식처 피괴, 대기오염, 열섬효과 등 많은 환경문제들이 발생하고 있다. 최근에는 자연경관에 대한 관심이 높아지면서 겨울철에도 서식하는 상록수의 적정 관리가 중요하게 대두되고 있다. 본 연구에서는 UAV 기반 식생지수를 이용하여 상록수 분포면적을 분석하였다. 먼저 고정익 UAV에 RGB와 NIR+RG 카메라를 탑재하였으며 Pix4D SW 기반 GCP점을 활용하여 영상접합을 수행하였다. 그리고 취득한 정사영상으로부터 밴드계산 기능을 통해 NDVI와 SAVI 식생지수를 계산하였다. 식생지수 구간별 상록수 분포의 정확도를 평가하기 위해 검정점을 이용하였으며, 분석 결과 "NDVI > 0.5"와 "SAVI > 0.7" 구간에서 Kappa 계수가 각각 0.822와 0.816로 가장 높게 나타났다. GIS 공간분석을 통해 계산한 "NDVI > 0.5"와 "SAVI > 0.7" 구간에서의 상록수 분포면적은 각각 $11,824m^2$$15,648m^2$로 계산되었으며 이는 전체면적 대비 4.8%와 6.3%에 해당되는 비율이다. 이와 같이 도심지 환경, 대기오염, 기후변화, 열섬효과 등과 관련하여 식생을 분석하는 업무에서 UAV가 최신의 고해상도 정보를 제공해 줄 수 있으리라 판단된다.