• 제목/요약/키워드: Digital Camera Interface

검색결과 79건 처리시간 0.034초

CAID 시스템의 디지털 라이팅을 위한 증강 현실 기반의 실체적 인터페이스에 관한 연구 (Augmented Reality Based Tangible Interface For Digital Lighting of CAID System)

  • 황정아;남택진
    • 디자인학연구
    • /
    • 제20권3호
    • /
    • pp.119-128
    • /
    • 2007
  • 디지털 기술이 발전하면서 산업디자인 프로세스에 컴퓨터를 활용하는 CAID 필수적인 부분이 되었다. 3차원 모델을 렌더링 하여 사진과 같은 최종 이미지 결과물이 만들어내는 것은 CAID에 특화된 작업들 중 하나이다. 이 작업을 위해 디자이너는 가상 모델의 재질, 조명, 카메라 둥의 위치 및 세부 변수들을 적절히 조절하여야 한다. 기존 CAID도구의 사용자 인터페이스는 이러한 속성을 컴퓨터 그래픽 연산을 위한 변수 설정 창에서 주로 해결하고 있어 디자이너들이 사용하는데 어려움을 겪고 있다. 본 논문에서는 CAID를 위한 디지털 렌더링 작업 특히 라이팅과 관련된 인터페이스 문제를 해결하기 위해 증강현실(Augmented Reality)과 실체적 인터페이스(Tangible Interface)를 활용한 가상의 라이트 조작 도구, TLS(Tangible Lighting Studio)를 제안하였다. 이는 카메라의 위치 설정, 라이팅 효과를 위한 변수설정의 인터페이스를 실체화하고 작업공간에 분산시킴으로써 보다 직관적인 렌더링 작업을 지원하는 도구이다. TLS는 가상의 광원, 카메라, 렌더링 대상 등을 물리적으로 직접 조작할 수 있는 마커, 컨트롤러 유닛들, 사용자가 착용하는 비디오 투시형 HMD 등으로 구성된다. 이를 활용하여 사용자는 증강현실 작업공간에서 직접 라이팅 속성을 조정할 수 있다. 유용성 평가 실험을 통하여 TLS가 기존 CUI(Graphic User Interface)기반 시스템보다 유효성, 효율성 그리고 사용자 만족도가 높다는 점을 발견하였다. TLS는 CAID도구의 인터페이스 분야뿐만 아니라 광원과 카메라의 효과를 활용하는 건축, 사진 촬영 교육 등의 분야에서 효과적으로 활용될 수 있으리라 기대된다.

  • PDF

Photogrammetry 기법을 활용한 MSC 설치면의 정밀 측정

  • 우성현;김홍배;문상무;임종민
    • 항공우주기술
    • /
    • 제3권1호
    • /
    • pp.126-133
    • /
    • 2004
  • 사진측량법(Photogrammetry)는 서로 다른 촬영각을 가지는 다수의 2차원 이미지로부터 대상물의 정밀한 3차원 형상을 얻어내는 기법이다. 본 연구에서는 사진측량법을 활용하여 다목적 실용위성 2호 비행모델 하부 탑재체 플랫폼(Low Payload Platform)의 고해상도 카메라 접합면에 대한 편평도(Flatness) 측정 작업을 수행하였으며, 정밀하게 교정된 2개의 스케일바(Scale Bar)를 사용하여 절대적인 길이 값을 3차원 모델에 부과함과 동시에 측정정확도를 계산하여 내었다. 또한 측정된 편평도 결과는 고해상도 카메라 납품 업체에서 제시한 편평도 요구조건과 비교되었다.

  • PDF

웹 카메라를 통한 실시간 모니터링 시스템 (Real time Monitoring System using Web Camera)

  • 류광희;최종근;임영태;박연식;정회경
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.667-670
    • /
    • 2005
  • 보안과 감시에 대한 사람들의 관심이 높아지면서 무인화에 초점을 맞춘 CCTV(Closed-circuit Television) 시장이 형성되었고, 디지털 영상 압축 기술과 인터넷이 급격히 발전함으로써 인터넷 기반의 웹 카메라가 새롭게 등장하였다. 웹 카메라의 특징은 기존의 CCTV와 다르게 장소에 구별 없이 네트워크가 이루어지는 곳에서 CCTV보다 좋은 화질의 영상을 볼 수 있는 것이다. 그러나 시스템 관리자에게는 웹 브라우저에서 웹 카메라 서버로 접속된 사용자에게만 해당 카메라의 영상을 보여주는 웹 카메라의 방식은 불편한 단점이다. 이에 본 논문에서는 여러 영상을 단일화면으로 구성한 멀티비전 인터페이스와 시스템 관리의 효율성을 높이기 위해 영상을 저장하는 기능 및 특정 시간에 저장이 이루어지는 스케줄링 기능을 구현 및 설계하였다.

  • PDF

디지털 화상처리에 의한 강.구조물의 용접부 치수 결함 검출의 자동화에 관한 연구 (A study on the Automatic Detection of the Welding Dimension Defect of Steel Construct using Digital Image Processing)

  • 김재열;유신;박기형
    • 한국생산제조학회지
    • /
    • 제8권3호
    • /
    • pp.92-99
    • /
    • 1999
  • The inspection unit which is developed and used in this study, is processed the shape data from the CCD camera to seek welding bite section shape, and then calculated as a real dimension from measuring the value of each inspection item. The reason of measuring with the real in this study is came out from the image method which used for a long time, which is extricated the characteristic as the dimension of pixel by recognize pixel. The measurement method of the section shape is that we decide the thresholding value after we drew the histogram to binarizate the object. After that, we make flat the object to get rid of the noise and measure the shape of welded part through the boundarization of the object. The shape measurement is that measure the value of the welding part to adapt the actual operation program from using the ratio between the actual dimension of the standard specimen and the dimension of image, to measure the ratio between the actual product and the camera image. The inspection algorithm which estimates the quality of welded product is developed and also, the software GUI(Graphic User Interface) which processes the automatic test function of the inspection system is developed. We make the foundation of the inspection automatic system and we will help to apply other welding machine.

  • PDF

GPGPU 기반의 효율적인 카메라 ISP 구현 (Implementing Efficient Camera ISP Filters on GPGPUs Using OpenCL)

  • 박종태;;홍진건
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.1784-1787
    • /
    • 2010
  • General Purpose Graphic Processing Unit (GPGPU) computing is a technique that utilizes the high-performance many-core processors of high-end graphic cards for general-purpose computations such as 3D graphics, video/image processing, computer vision, scientific computing, HPC and many more. GPGPUs offer a vast amount of raw computing power, but programming is extremely challenging because of hardware idiosyncrasies. The open computing language (OpenCL) has been proposed as a vendor-independent GPGPU programming interface. OpenCL is very close to the hardware and thus does little to increase GPGPU programmability. In this paper we present how a set of digital camera image signal processing (ISP) filters can be realized efficiently on GPGPUs using OpenCL. Although we found ISP filters to be memory-bound computations, our GPGPU implementations achieve speedups of up to a factor of 64.8 over their sequential counterparts. On GPGPUs, our proposed optimizations achieved speedups between 145% and 275% over their baseline GPGPU implementations. Our experiments have been conducted on a Geforce GTX 275; because of OpenCL we expect our optimizations to be applicable to other architectures as well.

참조점을 이용한 응시점 추출에 관한 연구 (A Study for Detecting a Gazing Point Based on Reference Points)

  • 김성일;임재홍;조종만;김수홍;남태우
    • 대한의용생체공학회:의공학회지
    • /
    • 제27권5호
    • /
    • pp.250-259
    • /
    • 2006
  • The information of eye movement is used in various fields such as psychology, ophthalmology, physiology, rehabilitation medicine, web design, HMI(human-machine interface), and so on. Various devices to detect the eye movement have been developed but they are too expensive. The general methods of eye movement tracking are EOG(electro-oculograph), Purkinje image tracker, scleral search coil technique, and video-oculograph(VOG). The purpose of this study is to embody the algorithm which tracks the location of the gazing point at a pupil. Two kinds of location data were compared to track the gazing point. One is the reference points(infrared LEDs) which is effected from the globe. Another is the center point of the pupil which is gained with a CCD camera. The reference point was captured with the CCD camera and infrared lights which were not recognized by human eyes. Both of images which were thrown and were not thrown an infrared light on the globe were captured and saved. The reflected reference points were detected with the brightness difference between the two saved images. In conclusion, the circumcenter theory of a triangle was used to look for the center of the pupil. The location of the gazing point was relatively indicated with the each center of the pupil and the reference point.

디지털 이미지 상관법을 이용한 Methacrylate기질과 Silorane기질 복합레진의 치아 수복 시 중합수축거동 (Polymerization Shrinkage Behavior Measured by Digital Image Correlation for Methacrylate-based and Silorane-based Composites During Dental Restoration)

  • 박정훈;최낙삼
    • Composites Research
    • /
    • 제33권3호
    • /
    • pp.125-132
    • /
    • 2020
  • 치과용 복합레진 Filtek P90 (3M ESPE, USA)과 Clearfil AP-X (Kuraray, Japan)를 대상으로 디지털 이미지 상관법을 이용하여 광중합 시 발생하는 수축거동을 관찰하고 등가탄성계수를 적용한 유한요소해석을 통해 시편표면의 응력분포를 산출하여 수축률분포와 비교하였다. 광조사 중과 광조사 후의 촬영 조건을 달리하여 CCD 카메라를 이용한 시편의 변형사진을 획득하고 디지털 이미지 상관분석을 하였다. DIC 분석 결과 상기의 복합레진 모두에서, 비균일한 수축변형률 분포가 관찰되었으며 링시편 내부의 레진 중심부가 자유로운 유동성으로 레진/링의 계면부보다 큰 수축 변형률이 발생하였다. 레진의 중심으로부터 거리가 멀어질수록 반경방향 평균수축률은 감소하였으며, 광조사동안에 발생한 반경방향 평균수축률은 경화시험종료(10 min) 후 발생한 반경방향 평균수축률 값을 기준으로 P90은 33%, AP-X는 57% 수준이었다. P90과 AP-X가 광조사 중의 수축거동이 크게 달랐음을 확인하였다. 레진/링의 계면부에 가까운 레진에서는 광조사 후에 인장변형률이 급격히 커져서 계면부가 인장응력을 받아 취약하게 됨을 확인하였다.

소형 휴머노이드 로봇 시스템 개발 (The Development of a Miniature Humanoid Robot System)

  • 성영휘;이수영
    • 제어로봇시스템학회논문지
    • /
    • 제7권5호
    • /
    • pp.420-426
    • /
    • 2001
  • In this paper, we introduce a case study of developing a miniature humanoid robot that has 16 degrees of freedom and is able to perform statically stable walking. The developed humanoid robot is 37cm tall and weighs 1,200g. RC servo motors are used as actuators. The robot can walk forward and turn to any direction on an even surface. It equipped with a small digital camera, so it can transmit vision data to a remote host computer via wireless modem. The robot can be operated in two modes: One is a remote-controlled mode, in which the robot behaves according to the command given by a human operator through the user-interface program running on a remote host computer, the other is a stand-alone mode, in which the robot behaves autonomously according the pre-programmed strategy. The user-interface program also contains a robot graphic simulator that is used to produce and verify the robot\`s gait motion. In our walking algorithm, the ankle joint is mainly used for balancing the robot. The experimental results shows that the developed robot can perform statically stable walking on an even surface.

  • PDF

Visible Light Identification System for Smart Door Lock Application with Small Area Outdoor Interface

  • Song, Seok-Jeong;Nam, Hyoungsik
    • Current Optics and Photonics
    • /
    • 제1권2호
    • /
    • pp.90-94
    • /
    • 2017
  • Visible light identification (VLID) is a user identification system for a door lock application using smartphone that adopts visible light communication (VLC) technology with the objective of high security, small form factor, and cost effectiveness. The user is verified by the identification application program of a smartphone via fingerprint recognition or password entry. If the authentication succeeds, the corresponding encoded visible light signals are transmitted by a light emitting diode (LED) camera flash. Then, only a small size and low cost photodiode as an outdoor interface converts the light signal to the digital data along with a comparator, and runs the authentication process, and releases the lock. VLID can utilize powerful state-of-the-art hardware and software of smartphones. Furthermore, the door lock system is allowed to be easily upgraded with advanced technologies without its modification and replacement. It can be upgraded by just update the software of smartphone application or replacing the smartphone with the latest one. Additionally, wireless connection between a smartphone and a smart home hub is established automatically via Bluetooth for updating the password and controlling the home devices. In this paper, we demonstrate a prototype VLID door lock system that is built up with LEGO blocks, a photodiode, a comparator circuit, Bluetooth module, and FPGA board.

Face Detection by Eye Detection with Progressive Thresholding

  • Jung, Ji-Moon;Kim, Tae-Chul;Wie, Eun-Young;Nam, Ki-Gon
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1689-1694
    • /
    • 2005
  • Face detection plays an important role in face recognition, video surveillance, and human computer interface. In this paper, we present a face detection system using eye detection with progressive thresholding from a digital camera. The face candidate is detected by using skin color segmentation in the YCbCr color space. The face candidates are verified by detecting the eyes that is located by iterative thresholding and correlation coefficients. Preprocessing includes histogram equalization, log transformation, and gray-scale morphology for the emphasized eyes image. The distance of the eye candidate points generated by the progressive increasing threshold value is employed to extract the facial region. The process of the face detection is repeated by using the increasing threshold value. Experimental results show that more enhanced face detection in real time.

  • PDF