• 제목/요약/키워드: Active Camera

검색결과 298건 처리시간 0.022초

Characteristics of ITO/Ag/ITO Hybrid Layers Prepared by Magnetron Sputtering for Transparent Film Heaters

  • Kim, Jaeyeon;Kim, Seohan;Yoon, Seonghwan;Song, Pungkeun
    • Journal of the Optical Society of Korea
    • /
    • 제20권6호
    • /
    • pp.807-812
    • /
    • 2016
  • Transparent film heaters (TFHs) based on Joule heating are currently an active research area. However, TFHs based on an indium tin oxide (ITO) monolayer have a number of problems. For example, heating is concentrated in only part of the device. Also, heating efficiency is low because it has high sheet resistance ($R_s$). To address these problems, this study introduced hybrid layers of ITO/Ag/ITO deposited by magnetron sputtering, and the electrical, optical, and thermal properties were estimated for various thicknesses of the metal interlayer. The $R_s$ of ITO(40)/Ag/ITO(40 nm) hybrid TFHs were 5.33, 3.29 and $2.15{\Omega}/{\Box}$ for Ag thicknesses of 10, 15, and 20 nm, respectively, while the $R_s$ of an ITO monolayer (95 nm) was $59.58{\Omega}/{\Box}$. The maximum temperatures of these hybrid TFHs were 92, 131, and $145^{\circ}C$, respectively, under a voltage of 3 V. And that of the ITO monolayer was only $32^{\circ}C$. For the same total thickness of 95 nm, the heat generation rate (HGR) of the hybrid produced a temperature approximately $100^{\circ}C$ higher than the ITO monolayer. It was confirmed that the film with the lowest $R_s$ of the samples had the highest HGR for the same applied voltage. Overall, hybrid layers of ITO/Ag/ITO showed excellent performance for HGR, uniformity of heat distribution, and thermal response time.

Saliency map 모델을 갖는 도약 안구 시각 시스템의 구현 (Implementation of saccadic eye movement system with saliency map model)

  • 조준기;이민호;신장규;고광식
    • 센서학회지
    • /
    • 제10권1호
    • /
    • pp.52-61
    • /
    • 2001
  • 이 논문에서는 선택적 주의 집중 기능을 갖는 도약 안구 시각 시스템을 제안한다. Saliency map 모델은 주어진 자연 영상에 대하여 선택위치를 순차적으로 출력하여 시선 이동 경로를 발생시킨다. 발생한 선택위치로의 신속한 움직임을 위하여 도약 안구 운동 모델을 개발하였다. 도약 안구 운동 모델은 시각 자극에 의한 반사적 도약 안구 운동 발생 시각 경로를 세 부분으로 구분하고, 시각 경로에 포함되는 뇌 조직들의 기능 및 역할이 반영되도록 각각의 세부 경로를 서로 다른 신경회로망을 이용하여 모델 하였다. 구현한 Saliency map 모델과 도약 안구운동 모델을 기반으로 한 능동 시각 시스템을 CCD 카메라와 BLDC 모터를 이용하여 실제 구성하고, 제안한 능동 시각 시스템이 실제 도약 안구의 움직임을 잘 추종하는지를 실험을 통하여 검증하였다.

  • PDF

안드로이드 웹 플랫폼 기반 U-Learning을 위한 M-Learning 애플리케이션 (M-Learning Application for Ubiquitous Learning Based on Android Web Platform)

  • 김혜진
    • 한국산학기술학회논문지
    • /
    • 제12권12호
    • /
    • pp.5564-5569
    • /
    • 2011
  • 본 연구는 U-Learning을 위한 안드로이드 플랫폼에서의 증강 현실 도입에 대한 것이다. 안드로이드는 모바일 컴퓨팅 및 개방형 기술의 새로운 기반이며, 안드로이드는 모바일 전화에만 국한되지 않고 다양한 장치에 적용이 가능하다. 또한 개발자의 기술을 활용할 수 있는 기회를 제공하며, 활동적이고 흥미로운 커뮤니티를 구축할 기회를 제공한다. 증강현실은 카메라, GPS 등 대부분 애플리케이션에 적용될 수 있으며, 점차 스마트 폰에서 일반화되고 있다. 증강현실은 웹 접속이 가능한 유비쿼터스 장비를 통해 개인들이 유연하게 정보들을 수신, 발신, 검토할 수 있는 교육도구가 될 수 있다. 본 논문에서는 형식 정의에 증강 현실을 이용한 안드로이드 스마트 폰을 사용하여 형식 식별을 위한 증강 현실을 제안한다. 본 연구는 학생들의 외부 공간 실습 활동, 즉 동물원, 식물원 등이 방문 시에 유용할 것이다.

교통표지판 인식을 위한 비젼시스템 (An Vision System for Traffic sign Recognition)

  • 김태우;강용석;차샘;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권2호
    • /
    • pp.45-50
    • /
    • 2009
  • 본 논문에서는 영상처리를 이용하여 온라인으로 교통표지판을 인식하는 비젼 시스템을 제안한다. 제안된 시스템은 넓은 두 개의 카메라, 즉 광각렌즈(wide-angle lends)와 망원렌즈(telephoto lends)를 장착하였고, 이미지처리 보드가 있는 PC로 구성되었다. 이 시스템은 색상, 밝기, 형태 등과 같은 정보를 이용하여 광각이미지의 교통표지판을 추출한 다음, 보다 큰 이미지에서 정확한 표지판 후보영역을 추출하기 위해 망원렌즈에서 포착된 이미지를 이용하여 처리하였다. 실험결과로써 수동으로 촬영한 비디오 연속장면에서 포착한 영상을 시용하여 실험한 결과 속도표지판은 추출율 96.5%, 인식률 34.4% 그리고 안내표지판은 추출율 100%, 인식률 40%의 결과를 나타내었다. 또한 간단한 실행과정으로 빠른 인식률을 얻을 수 있었으며, 도로상에서의 실험으로 시스템의 효용성을 입증하였다.

  • PDF

효율적인 브라우징 환경을 위한 비디오 색인 (Video Indexing for Efficient Browsing Environment)

  • 고병철;이해성;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권1호
    • /
    • pp.74-83
    • /
    • 2000
  • 최근 멀티미디어에 대한 관심이 증가하면서 그에 따른 기술 또한 매우 빠른 속도로 증가하고 있다. 특히 비디오 영상 검색 기능에 대한 사용자들의 욕구는 비디오에 대한 수동적인 접근 방식에서, 자신이 원하는 부분만을 선택적으로 검색할 수 있는 보다 편리한 환경을 요구하고 있다. 이를 위해서는 대용량의 비디오 데이타를 의미 있는 단위로 나누기 위한 비디오 파싱(Parsing)과 클러스터링(Clustering), 브라우징(Browsing)등을 포함하는 비디오 인덱싱 시스템의 구현이 필요하다. 본 논문에서는 우선 비디오 시퀀스를 히스토그램과 화소단위 비교법을 혼합한 하이브리드 방법을 통해서 자동 인덱싱을 위한 기본 단위인 샷(shot)으로 나눈다. 비디오 분할 후에 각 샷들로부터 대표 프레임을 검출한다. 대표 프레임은 사용자로 하여금 비디오의 전체적인 내용을 이해할 수 있도록 도와줌으로써 그 중요성이 크다고 할 수 있다. 따라서 본 논문에서는 웨이블릿 변환을 이용하여 우선적으로 샷 내에 포함된 카메라의 움직임을 분석하고, 각 프레임들의 변화량을 측정하여 샷의 복잡성에 따라 각기 다른 수의 대표 프레임을 선출하도록 하였다. 마지막으로 카메라 움직임중 패닝, 혹은 틸팅이 포함된 샷에 대해서 파노라마 영상을 합성함으로써 사용자에게 보다 편리하고 이해하기 쉬운 브라우징 환경을 제공할 수 있도록 하였다.

  • PDF

제천 스포츠복합건물 화재 재난에서의 권역재난의료지원팀 활동 경험 고찰: 한계점과 구조의 중요성 (Experience of a Disaster Medical Assistant Team activation in the fire disaster at Jecheon sports complex building: limitation and importance of rescue)

  • 정승교;김윤섭;김오현;이강현;김관래;정우진
    • 대한응급의학회지
    • /
    • 제29권6호
    • /
    • pp.585-594
    • /
    • 2018
  • Objective: This study was designed to report on the progress of the fire at Jecheon sports complex and to assess the adequacy of Disaster Medical Assistant Team (DMAT)'s activities in response to the fire disaster. Methods: We conducted a retrospective review based on camera recordings and medical records that were recorded at the disaster site for assessment of activities. We cooperated with firefighters, police officers, local hospital medical staffs and public health personnel in Jecheon in order to classify patients in the disaster field and to understand the patients' progress. Results: At 15:53, the first request for emergency rescue came to the 119 general emergency call center, and a request for DMAT activation came at 16:28. DMAT arrived at the site at 17:04 and remained active until the following day at 00:43. The total number of casualties was 60, including 27 minimal (Green) patients, 29 expectant (Black) patients, three delayed (Yellow) patients, and one immediate (Red) patient. There were 32 patients who received on-site care by DMAT. Two patients were transferred from a local hospital to Wonju Severance Christian Hospital for hyperbaric oxygen therapy. Conclusion: Twenty-nine victims were found in the sports complex building, and there were 31 mildly to moderately injured patients in this fire disaster. The main cause of death was thought to be smoke suffocation. Although DMAT was activated relatively quickly, it was not able to provide effective activity due to the late rescue and difficulty with fire suppression.

이중흐름 3차원 합성곱 신경망 구조를 이용한 효율적인 손 제스처 인식 방법 (An Efficient Hand Gesture Recognition Method using Two-Stream 3D Convolutional Neural Network Structure)

  • 최현종;노대철;김태영
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권6호
    • /
    • pp.66-74
    • /
    • 2018
  • 최근 가상환경에서 몰입감을 늘리고 자유로운 상호작용을 제공하기 위한 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 그러나 기존의 연구는 특화된 센서나 장비를 요구하거나, 낮은 인식률을 보이고 있다. 본 논문은 정적 손 제스처와 동적 손 제스처 인식을 위해 카메라 이외의 별도의 센서나 장비 없이 딥러닝 기술을 사용한 손 제스처 인식 방법을 제안한다. 일련의 손 제스처 영상을 고주파 영상으로 변환한 후 손 제스처 RGB 영상들과 이에 대한 고주파 영상들 각각에 대해 덴스넷 3차원 합성곱 신경망을 통해 학습한다. 6개의 정적 손 제스처와 9개의 동적 손 제스처 인터페이스에 대해 실험한 결과 기존 덴스넷에 비해 4.6%의 성능이 향상된 평균 92.6%의 인식률을 보였다. 본 연구결과를 검증하기 위하여 3D 디펜스 게임을 구현한 결과 평균 34ms로 제스처 인식이 가능하여 가상현실 응용의 실시간 사용자 인터페이스로 사용가능함을 알 수 있었다.

U-net기반 동적 연기 탐지 기법 (Tracking Method of Dynamic Smoke based on U-net)

  • 곽경민;노영주
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.81-87
    • /
    • 2021
  • 4차 산업혁명 시대에 맞추어 인공지능 기술은 눈에 띄게 발전하고 있다. 그 중 CNN 등을 활용한 시각 데이터 기반의 인공지능이 활발히 연구 진행 중이다. 시각 기반 모델 중 하나인 U-net은 Semantic Segmentation에 강한 정확도를 보이고 있다. 기존의 U-net을 활용하여 여러 가지 연구들이 진행 되어왔지만 가스, 연기와 같이 외곽선이 뚜렷하지 않은 연구들은 아직 부족한 실정이다. 또한 이와 대조적으로 가스, 연기 탐지에 대해 많은 연구들이 진행이 되어왔지만 U-net 등을 활용하여 단순한 Detection이 아닌 Segmentation 연구는 부족하다. 이를 토대로 본 연구에서는 U-net을 활용하여 가스, 연기 등을 탐지하는 연구를 진행하였다. 본 논문에서는 설정한 실험환경에서 3D camera를 활용하여 데이터를 수집하고 학습 및 테스트 셋을 생성한 방법을 기술하고, U-net을 적용한 방법과 얻은 결과를 검증한 내용을 서술하고, 마지막으로 활용방안 등에 대하여 논하였다.

An Improved ViBe Algorithm of Moving Target Extraction for Night Infrared Surveillance Video

  • Feng, Zhiqiang;Wang, Xiaogang;Yang, Zhongfan;Guo, Shaojie;Xiong, Xingzhong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권12호
    • /
    • pp.4292-4307
    • /
    • 2021
  • For the research field of night infrared surveillance video, the target imaging in the video is easily affected by the light due to the characteristics of the active infrared camera and the classical ViBe algorithm has some problems for moving target extraction because of background misjudgment, noise interference, ghost shadow and so on. Therefore, an improved ViBe algorithm (I-ViBe) for moving target extraction in night infrared surveillance video is proposed in this paper. Firstly, the video frames are sampled and judged by the degree of light influence, and the video frame is divided into three situations: no light change, small light change, and severe light change. Secondly, the ViBe algorithm is extracted the moving target when there is no light change. The segmentation factor of the ViBe algorithm is adaptively changed to reduce the impact of the light on the ViBe algorithm when the light change is small. The moving target is extracted using the region growing algorithm improved by the image entropy in the differential image of the current frame and the background model when the illumination changes drastically. Based on the results of the simulation, the I-ViBe algorithm proposed has better robustness to the influence of illumination. When extracting moving targets at night the I-ViBe algorithm can make target extraction more accurate and provide more effective data for further night behavior recognition and target tracking.

Behavioral responses to cow and calf separation: separation at 1 and 100 days after birth

  • Sarah E. Mac;Sabrina Lomax;Cameron E. F. Clark
    • Animal Bioscience
    • /
    • 제36권5호
    • /
    • pp.810-817
    • /
    • 2023
  • Objective: The aim was to compare the behavioral response to full separation of cows and calves maintained together for 100 days or 24 h. Methods: Twelve Holstein-Friesian cow-calf pairs were enrolled into either treatment or industry groups (n = 6 cow-calf pairs/group). The treatment cows and calves were maintained on pasture together for 106±8.6 d and temporarily separated twice a day for milking. The Industry cows and their calves, were separated within 24 h postpartum. Triaxial accelerometer neck-mounted sensors were fitted to cows 3 weeks before separation to measure hourly rumination and activity. Before separation, cow and calf behavior was observed by scan sampling for 15 min. During the separation process, frequency of vocalizations and turn arounds were recorded. At separation, cows were moved to an observation pen where behavior was recorded for 3 d. A CCTV camera was used to record video footage of cows within the observation pens and behavior was documented from the videos in 15 min intervals across the 3 d. Results: Before separation, industry calves were more likely to be near their mother than Treatment calves. During the separation process, vocalization and turn around behavior was similar between groups. After full separation, treatment cows vocalized three times more than industry cows. However, the frequency of time spent close to barrier, standing, lying, walking, and eating were similar between industry and treatment cows. Treatment cows had greater rumination duration, and were more active, than industry cows. Conclusion: These findings suggest a similar behavioral response to full calf separation and greater occurrence of vocalizations, from cows maintained in a long-term, pasture-based, cow-calf rearing system when ompared to cows separated within 24 h. However, further work is required to assess the impact of full separation on calf behavior.