• 제목/요약/키워드: Webcam

검색결과 86건 처리시간 0.023초

공간 증강 현실 디지털 콘텐츠 제작을 위한 효율적인 프레임워크 (An Efficient Framework for Making Spatial Augmented Reality Digital Contents)

  • 전영재;오경수
    • 한국게임학회 논문지
    • /
    • 제13권3호
    • /
    • pp.77-84
    • /
    • 2013
  • 이 논문은 공간 증강 현실 콘텐츠를 낮은 비용과 빠른 속도로 제작하기 위한 프레임워크를 제안한다. 우리의 프레임워크는 구하기 쉬운 장비인 웹캠과 프로젝터만으로 투영 기반의 증강현실 콘텐츠를 제작할 수 있는 환경을 제공한다. 콘텐츠 제작자는 웹캠과 프로젝터를 설치하고 프레임워크에서 제공하는 인터페이스를 조작하는 것으로 쉽고 빠르게 공간 증강 현실 기술을 사용한 디지털 콘텐츠를 제작할 수 있다. 기존의 솔루션들은 고가인 경우가 많고 콘텐츠 제작자가 증강 현실 기술을 스스로 적용하는 것이 쉽지 않기 때문에 우리가 제안하는 프레임워크는 콘텐츠 제작자가 콘텐츠 내용 자체에 집중할 수 있도록 돕는다. 프레임워크를 통해 웹캠과 프로젝터를 한 번 설정하면 인식 가능한 실제 물체의 이동과 회전에 따른 가상 물체의 렌더링 결과를 올바르게 투영한다. 그 결과, 우리는 사실적인 증강현실 콘텐츠를 확인할 수 있다.

CUDA를 이용한 웹캠 영상의 색상 형식 변환 최적화 (Optimization of Color Format Conversion of WebCam Images Using the CUDA)

  • 김진우;정윤혜;박진홍;박용진;한탁돈
    • 한국게임학회 논문지
    • /
    • 제11권1호
    • /
    • pp.147-157
    • /
    • 2011
  • 웹캠은 영상 데이터의 전송시간을 줄이기 위해 메모리 정렬은 고려하지 않는다. 메모리 정렬이 되지 않은 영상 데이터는 GPU에서 처리하기 부적합하며 고속의 영상처리를 위해서는 GPU에서 메모리 최적화가 가능한 색상 형식으로 변환되어야 한다. 본 논문은 웹캠 영상의 색상 형식 변환을 NVIDIA CUDA를 이용하여 가속하는 최적화 기법을 제안한다. 메모리 접근과 쓰레드 구성에 대한 최적화를 진행하였고, 제안하는 구조의 성능 측정과 최적화 정도를 분석하기 위해 GPU 메모리와 연산의 성능을 제한하여 실험하였다. 그 결과 최적화 방법에 따라 최대 68% 이상 성능이 향상됐다.

얼굴 인식 및 화자 정보를 이용한 오프라인 회의 기록 지원 시스템 (Recording Support System for Off-Line Conference using Face and Speaker Recognition)

  • 손윤식;정진우;박한무;계승철;윤종혁;정낙천;오세만
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.66-71
    • /
    • 2008
  • 최근 멀티미디어 서비스는 동영상 압축 기술 및 네트워크의 발달을 기반으로 하여 다양한 응용 서비스를 제공하고 있으며, 이 중 화상 회의 시스템은 이 두 가지 기술이 효과적으로 사용된 대표적인 예이다. 원격 사용자간의 원활한 의사전달을 위해 고려된 화상회의 시스템은 효과적인 응용 서비스로 분류되고 있지만, 이러한 서비스 제공을 위한 기술을 이용하여 빈도가 훨씬 많은 일반적인 회의를 지원하는 응용서비스는 드문 편이다. 본 논문에서는 얼굴 정보와 화자 정보를 기반으로 오프라인 회의를 보조하는 시스템을 제안한다. 제안된 시스템은 3개의 마이크와 웹캠을 이용하여 화자의 위치를 파악하고 웹캠에서 얻어진 정보를 이용하여 얼굴 영역 정보를 분석하고 인식한 후 화자 정보를 추출하여 발언자들을 추적하여 기록하는 기능을 제공한다.

자가 안면영상 촬영장치 개발 및 검증 (Development and Evaluation of an Self-Operated Face Capturing System)

  • 전영주;도준형;김장웅;김상길;이혜정;이유정;김근호;김종열
    • 한국한의학연구원논문집
    • /
    • 제17권2호
    • /
    • pp.115-120
    • /
    • 2011
  • Objectives : The purpose of this study is to develop an apparatus which can take a facial image by self-operated capturing technique. The user can obtain one's facial image immediately after adjusting facial tilt and focusing distance. The system has been designed for classifying Sasang typology based on facial image. Methods : The system is composed of a Webcam, one-way glass mirror and mini LCD. The Webcam takes a facial image which is displayed on the mini LCD. Then the user can see and adjust to the right position in the real time through the image mirror-reflected from the mini LCD. The optical sensor is used to estimate the proper focusing distance. To verify the performance of the system, 11 characteristic points on the facial image are used and compared with high performance DSLR camera(D700) by applying the coefficient of variance and Bland-Altman Plot. Results : The developed system and D700 show enough agreement with the small coefficient of variance to analyse constitutional types with a facial im mage. However, the result of Bland-Altman plot shows that the width parameters have distortions owing to short focusing distance. Conclusions : The system is expected to be utilized on u-healthcare services for home environment after improving the distortion in the width parameters.

공유경제를 위한 IoT 기반의 휴먼 인터랙티브 광고 서비스 구현 (Development of an IoT-Based Human Interactive Advertising Service for Sharing Economy)

  • 정원석;이창교;고완진;서정욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.413-415
    • /
    • 2019
  • 본 논문에서는 공유경제를 위한 IoT 기반의 휴먼 인터랙티브 광고 서비스(IoT-HiAS, IoT-Human Interactive Advertising Service)를 구현한다. HiAS 디바이스가 웹캠을 통해 디바이스의 전방을 촬영하고 MobileNet을 사용한 SSD 모델을 통해 사람을 실시간으로 검출한다. 검출된 사람을 카운팅하여 설정한 기준 이상의 사람 수가 검출되면 빔 프로젝터를 통해 유휴자원에 광고를 재생한다. 광고가 재생됨과 동시에 디바이스 전방의 광고 시작 시점을 캡쳐한 이미지와 검출된 사람의 수를 IoT 클라이언트를 통해 HiAS 서버의 oneM2M 표준을 준용한 IoT 서버로 전송한다. 광고가 끝나면 디바이스 전방을 촬영하여 이미지를 IoT 서버로 전송한다. 전송받은 데이터를 HiAS 서버의 소셜 네트워크 서비스(SNS, Social Network Service) 에이전트를 통해 광고주 및 광고제작자에게 알림 메시지를 전송하여 IoT 기반의 휴먼 인터랙티브 광고 서비스를 구현하였다.

  • PDF

Deep Learning Frameworks for Cervical Mobilization Based on Website Images

  • Choi, Wansuk;Heo, Seoyoon
    • 국제물리치료학회지
    • /
    • 제12권1호
    • /
    • pp.2261-2266
    • /
    • 2021
  • Background: Deep learning related research works on website medical images have been actively conducted in the field of health care, however, articles related to the musculoskeletal system have been introduced insufficiently, deep learning-based studies on classifying orthopedic manual therapy images would also just be entered. Objectives: To create a deep learning model that categorizes cervical mobilization images and establish a web application to find out its clinical utility. Design: Research and development. Methods: Three types of cervical mobilization images (central posteroanterior (CPA) mobilization, unilateral posteroanterior (UPA) mobilization, and anteroposterior (AP) mobilization) were obtained using functions of 'Download All Images' and a web crawler. Unnecessary images were filtered from 'Auslogics Duplicate File Finder' to obtain the final 144 data (CPA=62, UPA=46, AP=36). Training classified into 3 classes was conducted in Teachable Machine. The next procedures, the trained model source was uploaded to the web application cloud integrated development environment (https://ide.goorm.io/) and the frame was built. The trained model was tested in three environments: Teachable Machine File Upload (TMFU), Teachable Machine Webcam (TMW), and Web Service webcam (WSW). Results: In three environments (TMFU, TMW, WSW), the accuracy of CPA mobilization images was 81-96%. The accuracy of the UPA mobilization image was 43~94%, and the accuracy deviation was greater than that of CPA. The accuracy of the AP mobilization image was 65-75%, and the deviation was not large compared to the other groups. In the three environments, the average accuracy of CPA was 92%, and the accuracy of UPA and AP was similar up to 70%. Conclusion: This study suggests that training of images of orthopedic manual therapy using machine learning open software is possible, and that web applications made using this training model can be used clinically.

프로그래밍 흥미 향상을 위한 웹캠 기반 스크래치 교육 콘텐츠 개발 (Development of Scratch Learning Contents using Webcam for Enhancing Interest in Programming)

  • 김지윤;이태욱
    • 한국컴퓨터교육학회 학술대회
    • /
    • 한국컴퓨터교육학회 2017년도 하계학술대회
    • /
    • pp.121-124
    • /
    • 2017
  • 초등 교육과정에 소프트웨어 교육 내용이 포함되는 2015 개정 교육과정의 시행을 앞두고, 학교 현장의 교사들은 이에 대한 지도 준비 수준이 낮으며 소프트웨어 교육 관련 교수 학습 자료도 부족하다고 느끼고 있었다. 이에 본 논문에서는 체험을 주 내용으로 하는 초등학교 프로그래밍 영역에 활용이 가능한 웹캠 기반 스크래치 프로그래밍 교육 콘텐츠를 개발하였다. 이 때 프로그래밍 흥미를 높일 수 있는 방법으로 웹캠을 사용하여 사용자의 움직임과 상호작용이 가능한 콘텐츠를 제작하였으며 총 10차시로 구성하였다. 추후 본 논문에서 제안한 교육 콘텐츠를 초등학생들에게 적용하여 교육적 효과를 검토할 것이다.

  • PDF

웹 캠을 이용한 스테레오 영상의 3차원 거리 측정 (3D Distance Measurement of Stereo Images Using Web Cams)

  • 김승환;함운철
    • 대한임베디드공학회논문지
    • /
    • 제3권3호
    • /
    • pp.151-157
    • /
    • 2008
  • In this paper, we propose a three dimensional distance measurement method for a stereo system by using web cams. Using a parallel stereo system, a robot gets two images from each webcam and equalize brightness of both images. And we suggest an image processing method such as labeling, isolating an object from background and finding center of an object. We also propose a method of calculating the focal distance by using least square algorithm based on triangulation and we can reduce calculation error by this method. From experimental results, we show that the proposed method can be effective for 3D distance measurement.

  • PDF

웹캠 기반 무구속 신장측정 시스템 모델링 (Modeling for Webcam-based Height Measurement System)

  • 최화진;신항식
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2015년도 제46회 하계학술대회
    • /
    • pp.1419-1420
    • /
    • 2015
  • 본 연구는 무구속 신장측정 기초연구로 웹캠을 기반으로 한 무구속 신장측정 시스템을 모델링하고 실험을 통해 가능성을 평가한다. 시스템 모델링은 웹캠의 수직화각, 피사체까지의 거리, 웹캠의 높이, 웹캠 해상도 등을 고려하여 수행되었다. 개발된 모델의 정확도는 실제높이를 마커로 표시하고, 획득된 영상에서 마커를 추출한 뒤 실제높이를 추정하는 방법으로 평가 되었다. 실험에서 마커는 150 cm부터 200 cm까지 5 cm 간격으로 위치하였다. 결과적으로 영상기반으로 추정된 높이는 실제 높이를 과추정(over-estimated)하며, 높이에 따라 -4.5% ~ -1.6%의 오차율을 가지는 것으로 나타났다. 하지만, 오차율이 높이와 일관된 비례양상을 보여 보상 파라미터를 통해 정확도를 향상시킬 수 있는 가능성을 보였다.

  • PDF

Automatic Display Quality Measurement by Image Processing

  • Chen, Bo-Sheng;Heish, Chen-Chiung
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2009년도 9th International Meeting on Information Display
    • /
    • pp.1228-1231
    • /
    • 2009
  • This paper presented an automatic system for display quality measurement by image processing. The goal is to replace human eyes for display quality evaluation by computer vision and get the objective quality review for consumer to make purchase of monitor or TV. Color, contrast, brightness, sharpness and motion blur are the main five factors to affect display quality that could be measured by supplying patterns and analyzing the corresponding images captured from webcam. The scores are calculated by image processing techniques. Linear regression model is then adopted to find the relation between human score and the measured display performance.

  • PDF