• 제목/요약/키워드: eye'S image

검색결과 297건 처리시간 0.027초

Fast Measurement of Eyebox and Field of View (FOV) of Virtual and Augmented Reality Devices Using the Ray Trajectories Extending from Positions on Virtual Image

  • Hong, Hyungki
    • Current Optics and Photonics
    • /
    • 제4권4호
    • /
    • pp.336-344
    • /
    • 2020
  • Exact optical characterization of virtual and augmented reality devices using conventional luminance measuring methods is a time-consuming process. A new measurement method is proposed to estimate in a relatively short time the boundary of ray trajectories emitting from a specific position on a virtual images. It is assumed that the virtual image can be modeled to be formed in front of one's eyes and seen through some optical aperture (field stop) that limits the field of view. Circular and rectangular shaped virtual images were investigated. From the estimated ray boundary, optical characteristics, such as the viewing direction and three dimensional range inside which a eye can observe the specified positions of the virtual image, were derived. The proposed method can provide useful data for avoiding the unnecessary measurements required for the previously reported method. Therefore, this method can be complementary to the previously reported method for reducing the whole measurement time of optical characteristics.

PVM을 이용한 컴퓨터비젼 플랫폼 (Computer Vision Platform using PVM)

  • 김경남;고종국;김상호;서영진
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.544-546
    • /
    • 1998
  • 컴퓨터 비젼은 많은 계산을 요구하는 작업으로 구조적인 계산작업(low-level vision)과 비구조적 계산작업(high-level vision)을 가지고 실시간 처리를 요구한다. 이러한 점에서 비젼 작업의 병렬처리와 그것들의 구현에 대한 스케쥴링 schemes이 본 논문에서 중요시 된다. 그리고 PVM이 동작하는 저가의 네트워크로 연결된 워크스테이션 클러스터상에서 구현될 알고리즘을 구현하고 제안된 아이디어는 실용적인 예 (eye location from image sequence)를 들어서 보였다. 차세대의 멀티미디어 환경은 이러한 고성능의 컴퓨팅 플랫폼을 사용하리라 기대된다.

  • PDF

뇌정위 방사선수술을 위한 컴퓨터 치료계획시스템의 개발 (Development of a Stereotactic Radiosurgery Planning System)

  • 조병철;오도훈;배훈식
    • 한국의학물리학회지:의학물리
    • /
    • 제8권1호
    • /
    • pp.17-24
    • /
    • 1997
  • 선형가속기를 이용한 뇌정위 방사선수술을 시행하기 위하여 PC에서 실행 가능한 치료 계획시스템을 개발하였다. 128 MB RAM 용량의 Pentium Pro 200 MHz의 PC에서 Windows 95를 기반으로 하였으며, Research Systems사의 프로그램 제작 툴인 IDL을 이용하여 프로그래밍 하였다. Brown-Robert-Wells(BRW) 정위틀을 두개골에 고정한 후 전산화단층촬영을 시행하여 얻은 영상데이터를 광자기디스크를 이용하여 PC에서 입력받을 수 있도록 인터페이스를 구축하였다. 영상데이터를 입력시킨 후 각 단면영상에서의 정위틀의 위치를 자동으로 인식하고 정위좌표계를 설정하여 단변영상의 좌표, 기울어짐, 축소율 등을 정확히 계산하여 보정할 수 있다. 좌표계의 설정이 이루어지면 각 단면에서 표적 및 방사선 민감 조직들의 외곽선을 입력, 수정한다. 외곽선의 입력이 종료되면 표적의 중심이 결정되고 방사선 수술을 위한 빔의 설계한다. 빔 설계의 효율성을 위하여 Beam's eye view(BEV) 및 Room's eye view(REV)를 동시에 확인할 수 있도록 개발하였다. 빔의 설계가 끝나면 3 차원적인 선량계산을 시행한다 .5개의 arc로 설계하였을 때 선량계산에 소요되는 시간은 약 1-2 분이었다. 선량분포는 각 단면영상에서 확인할 수 있으며 표적 및 주변 방사선 민감 조직들의 Dose-Volume Histogram(DVH)을 평가하여 선량분포 및 치료계획의 합리성을 정량적으로 분석할 수 있도록 구현하였다. 기본적인 기능을 지원하는 PC 기반의 뇌정위 방사선수술을 위한 치료계획시스템으로 앞으로 임상적용이 가능할 것으로 생각된다.

  • PDF

졸음 인식과 안전운전 보조시스템 구현 (Implementation of A Safe Driving Assistance System and Doze Detection)

  • 송혁;최진모;이철동;최병호;유지상
    • 대한전자공학회논문지SP
    • /
    • 제49권3호
    • /
    • pp.30-39
    • /
    • 2012
  • 본 논문에서는 검출된 운전자의 얼굴영역에서 눈의 형태를 인식하여 졸음 상태를 감지하는 기법을 개발하고 감지 결과에 따라 위험 상태를 알려주는 경보 시스템을 구현하고자 한다. 먼저 얼굴 검출에는 Haar 변환 기법을 이용하고 실험실환경, 차량환경 및 적외선 영상을 획득하여 다양한 조명 환경에서도 강인하도록 전처리 및 후처리 과정을 적용한다. 눈 검출에는 보통 한국인이라는 가정하에 눈의 위치 및 크기의 비례 구조 특성 등을 이용하여 후보 영역을 제한하고 트리구조에 대한 실험 결과로 고속 알고리즘을 구현하였다. 또한 졸음 상태를 인식하기 위해서는 눈의 개폐 형태를 검출할 수 있는 Hough 변환을 이용한 기법과 눈의 계폐에 따른 눈의 형태 비율을 이용한 기법을 새로이 제안하며, 눈이 감겨있는 시간을 측정하여 졸음 여부를 판단한다. 1단계 졸음 상태로 판단될 경우 통합 모니터링 인터페이스에서 운전자에게 경고음을 울리며 2단계 졸음 상태로 판단될 경우에는 CAN(Controller Area Network)을 통하여 안전벨트를 진동하게 함으로써 운전자에게 경고를 하는 시스템을 구현한다. 본 논문에서 제안하는 기법은 기존의 기법들과 비교하여 실험실 환경에서 평균 83.64% 이상의 검출률을 달성 하였으며, 실제 차량환경에서도 실험 결과를 통하여 평균적으로 우수한 결과를 보였다.

위치 이동에 무관한 홍채 인식을 위한 웨이블렛 변환 기술 (Wavelet Transform Technology for Translation-invariant Iris Recognition)

  • 임철수
    • 정보처리학회논문지B
    • /
    • 제10B권4호
    • /
    • pp.459-464
    • /
    • 2003
  • 본 논문에서 제안한 위치 이동에 무관한 웨이블렛 변환을 이용한 홍채 인식 방법은 영상 획득 장비에 의해 획득한 사용자의 눈 영상에 대하여 홍채 영역만을 추출하기 위한 전처리를 수행하고 전처리를 거친 홍채 영상에 의하여 사용자의 신원을 식별하는데 있어서 홍채 영상의 기울어짐 및 이동 문제를 해결하였다. 이를 위해서 일반적인 웨이블렛을 사용하는 대신, 위치 이동에 무관한 웨이블렛 변환을 통하여 최적의 특징값을 추출한후, 이를 코드화하여 저장한 후, 비교하여 본인 여부를 식별하였다. 실험결과 제안된 방법으로 생성된 특징 벡터와 기존에 등록된 특징 벡터의 일치도 측정에 있어서 종래의 웨이블렛 변환 홍채 인식 방법보다 오인식률(FAR) 및 오거부율(FRR)이 현저하게 감소하였다.

무인차량용 3차원 영상처리를 위한 16-채널 CMOS 인버터 트랜스임피던스 증폭기 어레이 (A 16-channel CMOS Inverter Transimpedance Amplifier Array for 3-D Image Processing of Unmanned Vehicles)

  • 박성민
    • 전기학회논문지
    • /
    • 제64권12호
    • /
    • pp.1730-1736
    • /
    • 2015
  • This paper presents a 16-channel transimpedance amplifier (TIA) array implemented in a standard $0.18-{\mu}m$ CMOS technology for the applications of panoramic scan LADAR (PSL) systems. Since this array is the front-end circuits of the PSL systems to recover three dimensional image for unmanned vehicles, low-noise and high-gain characteristics are necessary. Thus, we propose a voltage-mode inverter TIA (I-TIA) array in this paper, of which measured results demonstrate that each channel of the array achieves $82-dB{\Omega}$ transimpedance gain, 565-MHz bandwidth for 0.5-pF photodiode capacitance, 6.7-pA/sqrt(Hz) noise current spectral density, and 33.8-mW power dissipation from a single 1.8-V supply. The measured eye-diagrams of the array confirm wide and clear eye-openings up to 1.3-Gb/s operations. Also, the optical pulse measurements estimate that the proposed 16-channel TIA array chip can detect signals within 20 meters away from the laser source. The whole chip occupies the area of $5.0{\times}1.1mm^2$ including I/O pads. For comparison, a current-mode 16-channel TIA array is also realized in the same $0.18-{\mu}m$ CMOS technology, which exploits regulated-cascode (RGC) input configuration. Measurements reveal that the I-TIA array achieves superior performance in optical pulse measurements.

퍼지 모델을 기반으로 한 컬러 영상에서의 감성 인식 (Fuzzy Model-Based Emotion Recognition Using Color Image)

  • 주영훈;정근호
    • 한국지능시스템학회논문지
    • /
    • 제14권3호
    • /
    • pp.330-335
    • /
    • 2004
  • 본 논문에서는 컬러 영상을 이용하여 인간의 감성을 인식할 수 있는 방법을 제안한다. 먼저, 컬러 영상으로부터 색모델을 이용하여 피부색 영역을 추출한다. 그 다음, 추출된 피부색 영상으로부터 Eigenface를 이용하여 얼굴 영역을 검출한다. 마지막으로, 얼굴 영역으로부터 인간 얼굴의 특징 점(눈썹, 눈, 코, 입)들을 추출하고, 각 특징 점들 간의 구조적인 관계로부터 인간의 감성(기쁨, 놀람, 슬픔, 분노)을 인식하는 퍼지 모델을 구성한다. 이 모델로부터 퍼지 이론을 이용하여 최종적으로 인간의 감성을 추론한다. 마지막으로, 제안된 방법은 실험을 통해 그 응용 가능성을 확인한다.

홍채 영역 분할을 위한 새로운 원 검출 알고리즘 (A Novel Circle Detection Algorithm for Iris Segmentation)

  • 윤웅배;김태윤;오지은;김광기
    • 한국멀티미디어학회논문지
    • /
    • 제16권12호
    • /
    • pp.1385-1392
    • /
    • 2013
  • 최근 생체 정보를 이용한 다양한 방식의 인증 시스템에 대한 연구가 많이 이루어지고 있다. 본 연구에서는 홍체 인식을 위한 홍채 영역 검출을 위하여 임계값의 변경 없이 원둘레의 일부 정보를 이용하여 만들어진 원의 연립방정식을 이용하여 전안부 영상에서의 홍채 영역을 효과적으로 검출할 수 있는 새로운 알고리즘을 제안한다. 제안 알고리즘은 외곽정보를 통해 계산된 원의 중점 좌표가 가장 많이 누적된 영역을 검출될 원의 중점으로 인식하여 검출하게 된다. 이를 위하여 50명의 사람의 전안부 이미지에서 테스트를 통해 알고리즘을 circular hough transform, Daugman의 방법과 비교한 결과, 두 방법에 비하여 속도는 각각 5배, 75배가 향상되었으며, 제안한 방법의 중심위치 정확도는 95.36%로 circular hough transform 방법의 92.43%에 비하여 더 우수한 성능을 나타내었다. 본 연구는 홍채인식을 통한 신분 인증 시스템이나, 전안부 영상을 이용한 질병진단 시스템에서의 유용하게 활용이 될 것이라 예상된다.

Head-Up Display 장치의 자동차 적용을 위한 연구 (A Study of Head-Up Display System for Automotive Application)

  • 양인범;이혁기;김병우
    • 한국자동차공학회논문집
    • /
    • 제15권4호
    • /
    • pp.27-32
    • /
    • 2007
  • Head-Up Display system makes it possible for the driver to be informed of important vehicle data such as vehicle speed, engine RPM or navigation data without taking the driver's eyes off the road. Long focal length optics, LCD with bright illumination, image generator and vehicle interface controllers are key parts of head-up display system. All these parts have been designed, developed and applied to the test vehicle. Virtual images are located about 2m ahead of the driver's eye by projecting it onto the windshield just below the driver's line of sight. Developed head-up display system shows satisfactory results for future commercialization.

Frontal Face Generation Algorithm from Multi-view Images Based on Generative Adversarial Network

  • Heo, Young- Jin;Kim, Byung-Gyu;Roy, Partha Pratim
    • Journal of Multimedia Information System
    • /
    • 제8권2호
    • /
    • pp.85-92
    • /
    • 2021
  • In a face, there is much information of person's identity. Because of this property, various tasks such as expression recognition, identity recognition and deepfake have been actively conducted. Most of them use the exact frontal view of the given face. However, various directions of the face can be observed rather than the exact frontal image in real situation. The profile (side view) lacks information when comparing with the frontal view image. Therefore, if we can generate the frontal face from other directions, we can obtain more information on the given face. In this paper, we propose a combined style model based the conditional generative adversarial network (cGAN) for generating the frontal face from multi-view images that consist of characteristics that not only includes the style around the face (hair and beard) but also detailed areas (eye, nose, and mouth).