• Title/Summary/Keyword: 카메라 애플리케이션

Search Result 83, Processing Time 0.032 seconds

Smart CCTV for Human Detection (인체감지 스마트 감시 카메라)

  • Choi, Duk-Kyu;Jang, Tae-Jin;Oh, Seung-Hun;Kang, Chang-wook;Lim, Joung-Woo;Kim, Bo-Young;Lim, Young-Woong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.667-668
    • /
    • 2020
  • 최근에는 범죄예방과 시설물 안전 및 출입관리, 화제예방 등 다양한 목적으로 감시카메라(CCTV)가 널리 보급되어 공공기관이나 상업시설 등 어느 곳에서나 찾을 수 있다. 이렇듯 많은곳에서 저마다의 이유로 사용되고 있는 감시카메라지만, 가장 흔하게 사용되는 이유는 범죄예방에 있다. 시설 내·외부에 감시카메라를 설치하여 도난사건 등을 사전에 방지하고 사후 증거확보에 유용하게 쓰일 수 있기 때문인데 문제는 감시카메라를 통해 사건을 사전에 방지하기 위해서는 실시간으로 사람이 카메라 영상을 지켜보고 있어야 한다. 하지만 사람이 항상 감시할수있을수는 없기 때문에 예방보다는 사후 증거확보를 위해 사용되는 실정이다. 즉 대부분의 감시카메라가 본래의 역할에 절반밖에 하지 못하고 있다는 것이다. 본 과제는 이러한 문제점을 해결하기 위해 감시카메라 자체의 기능을 추가하여 감시카메라가 인력을 필요로 하지않고 스스로 본래의 역할을 다할수있게 할 것이다.

  • PDF

A Preliminary Study on Pupillary Light Reflex Measurement using a Smartphone Camera (스마트폰 카메라를 이용한 동공반응 검사에 대한 기초연구)

  • Kim, Namik;Lee, Hyeonsu;Im, Soobin;Moon, Chanki;Nam, Yunyoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.534-537
    • /
    • 2015
  • 본 논문은 스마트폰 카메라를 이용하여 동공 반응 검사를 할 수 있는 스마트폰용 애플리케이션을 제안한다. 스마트폰의 카메라에 접사 렌즈를 부착한 후, 카메라 렌즈를 실험자의 눈 앞에 위치시켰으며, 빛 자극에 따른 전안부 영상을 촬영하였다. 스마트폰으로 얻은 전안부 영상을 HSV 컬러 모델로 변환 후 전처리와 필터를 걸쳐 동공을 검출하였다. 실험은 5명의 젊은 남성을 대상으로 수행되었으며 실험결과 71.2%의 동공 검출률을 얻었다.

A Study on Selection of the Optimal Region of Interest for Smartphone Photoplethysmography (스마트폰의 PPG 신호를 위한 최적의 관심영역 선택에 대한 연구)

  • Shin, Suhae;Hong, Jieun;Moon, Chanki;Nam, Yunyoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.572-574
    • /
    • 2015
  • 최근 스마트폰 내장 카메라와 플래시를 사용하여 PPG 신호를 측정하고 생체정보를 측정하는 연구가 많이 진행되고 있다. 그러나 스마트폰 카메라를 사용하여 측정하는 PPG신호는 스마트폰 카메라와 플래시 위치에 따라 각 측정 영역의 신호의 세기가 다르다. 본 논문에서는 스마트폰 카메라와 플래시 위치에 따라 강한 PPG 신호를 가지는 ROI를 찾기 위해 비교, 분석하였다. ROI를 계산하기 위해 PPG 신호를 측정하고 ROI를 선정할 수 있는 스마트폰 애플리케이션을 개발하여 각 ROI의 PPG 신호의 편차를 계산하고 가장 최적의 영역을 실험을 통해 비교분석하였다.

Development of an English Study Application using Deep Learning-based lmage Recognition techniques (딥러닝 기반 이미지 인식 기술을 활용한 영어 학습 애플리케이션 개발)

  • Kim, Yoo Jung;Kim, Ju Yeon;Lee, Yu bin;Lee, Ki Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.151-154
    • /
    • 2017
  • 본 논문에서는 사용자의 주변사물을 인식하여 영단어로 알려줌으로써 사용자가 실생활에서 영단어를 능동적으로 학습할 수 있도록 돕는 애플리케이션을 개발한다. 본 애플리케이션은 사용자가 카메라로 촬영하거나 사진첩에서 선택한 이미지를 인식하여 사진 속 물체의 영어 단어와 한국어 뜻을 알려주며, 단어의 발음 또한 확인할 수 있고, 직접 단어장에 저장하여 다시 학습할 수 있도록 한다. 이를 위해 TensorFolw를 활용한 딥러닝 기반 이미지 인식 기술을 사용하였으며, 추후 TensorFolw를 통하여 모델을 추가적으로 훈련시킴으로써 이미지 인식의 정확도를 높일 수 있다. 그 외 영어-한국어 번역, 텍스트-음성 변환 등 부가 기능을 통해 사용자가 다양한 방식으로 영단어를 학습할 수 있도록 한다.

Technical Challenges in Developing AR.Drone IoT Application (AR.Drone IoT 애플리케이션 개발에서의 기술적 이슈)

  • Han, Seung Ho;Kang, Chung Hoon;Choi, Ji Ye;Kim, Moon Kwon;Kim, Soo Dong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.264-267
    • /
    • 2014
  • 비행용 IoT 디바이스 중 하나인 Drone 은 사람이 수행하기 힘든 작업 등에 활용되면서 다양한 분야에서 주목 받고 있다. 현재 상용화가 많이 된 AR.Drone 은 기본 비행 관련 기능뿐만 아니라 GPS 센서를 이용한 정밀 비행 및 복귀, 카메라 센서 이용한 사물 추적(Object Tracking) 등의 여러 목적으로 활발히 개발이 이뤄지고 있다. 그러나 AR.Drone IoT 애플리케이션 개발은 전통적인 소프트웨어 개발과는 다르게 다양한 기술적 이슈가 발생한다. 본 논문에서는 AR.Drone IoT 애플리케이션 개발 시 발생하는 개발 및 실행 관련 기술적 이슈를 설명하고, 각 이슈의 필요성과 한계점, 발생하는 문제점들을 제시한다.

Analysis of Users' Gestures by Application in Smartphone Touch Interfaces (스마트폰 터치 인터페이스에서 애플리케이션별 사용자 제스처의 분석)

  • Kim, Jisun;Bahn, Hyokyung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.15 no.2
    • /
    • pp.9-14
    • /
    • 2015
  • Touch interface is widely used in a smartphone instead of a keyboard or a keypad interface that has been adopted in a PC or a featurephone, respectively. Touch interface can recognize a variety of gestures that clearly represent the distinct features of each application's input. This paper analyzes users' gesture of each application captured by the touch interface of a smartphone. Specifically, we extract touch input traces from various application categories such as game, web browser, youtube, image and e-book viewer, video player, camera, and map applications, and then analyzed them. Through this analysis, we observed a certain unique characteristics of each application's touch input, and this can be utilized in various useful areas such as identification of an application user, prevention of running an application by an illegal user, or design of a new interface convenient to a specific user.

Analysis on the Power Efficiency of Smartphone According to Parameters (스마트폰의 구성 변수에 따른 전력 효율성 분석)

  • Son, Dong-Oh;Kim, Jong-Myon;Kim, Cheol-Hong
    • Journal of the Korea Society of Computer and Information
    • /
    • v.18 no.5
    • /
    • pp.1-8
    • /
    • 2013
  • Smartphone enables diverse applications to be used in mobile environments. In spite of the high performance of smartphones, battery life has become one of the major constraints in mobility. Therefore, power efficiency of the smartphone is one of the most important factors in determining the efficiency of the smartphone. In this paper, in order to analyze the power efficiency of the smartphone, we have various experiments according to several configuration parameters such as processor, display and OS. We also use diverse applications. As a result, power consumption is dependent on the processor complexity and display size. However, power consumption shows the unpredictable pattern according to the OS. Smartphone using android OS consumes high power when internet and image processing applications are executed, but It consumes low power when music and camera applications are executed. In contrary, smartphone based on iOS consumes high power when game and internet applications are executed but it consumes low power when camera and processing applications are executed. In general, smartphone using iOS is more power efficient than smartphone based on android OS, because smartphone using iOS is optimized in the perspective of the hardware and OS.

A Real-time Vision-based Page Recognition and Markerless Tracking in DigilogBook (디지로그북에서의 비전 기반 실시간 페이지 인식 및 마커리스 추적 방법)

  • Kim, Ki-Young;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.493-496
    • /
    • 2009
  • Many AR (Augmented Reality) applications have been interested in a marker-less tracking since the tracking methods give camera poses without attaching explicit markers. In this paper, we propose a new marker-less page recognition and tracking algorithm for an AR book application such as DigilogBook. The proposed method only requires orthogonal images of pages, which need not to be trained for a long time, and the algorithm works in real-time. The page recognition is done in two steps by using SIFT (Scale Invariant Feature Transform) descriptors and the comparison evaluation function. And also, the method provides real-time tracking with 25fps ~ 30fps by separating the page recognition and the frame-to-frame matching into two multi-cores. The proposed algorithm will be extended to various AR applications that require multiple objects tracking.

  • PDF

A Design and Implementation of Fitness Application Based on Kinect Sensor

  • Lee, Won Joo
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.3
    • /
    • pp.43-50
    • /
    • 2021
  • In this paper, we design and implement KITNESS, a windows application that feeds back the accuracy of fitness motions based on Kinect sensors. The feature of this application is to use Kinect's camera and joint recognition sensor to give feedback to the user to exercise in the correct fitness position. At this time, the distance between the user and the Kinect is measured using Kinect's IR Emitter and IR Depth Sensor, and the joint, which is the user's joint position, and the Skeleton data of each joint are measured. Using this data, a certain distance is calculated for each joint position and posture of the user, and the accuracy of the posture is determined. And it is implemented so that users can check their posture through Kinect's RGB camera. That is, if the user's posture is correct, the skeleton information is displayed as a green line, and if it is not correct, the inaccurate part is displayed as a red line to inform intuitively. Through this application, the user receives feedback on the accuracy of the exercise position, so he can exercise himself in the correct position. This application classifies the exercise area into three areas: neck, waist, and leg, and increases the recognition rate of Kinect by excluding positions that Kinect does not recognize due to overlapping joints in the position of each exercise area. And at the end of the application, the last exercise is shown as an image for 5 seconds to inspire a sense of accomplishment and to continuously exercise.

Design and Implementation of Finger Keyboard with Video Camera (비디오 카메라를 이용한 핑거 키보드의 설계 및 구현)

  • Hwang, Kitae
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.16 no.5
    • /
    • pp.157-163
    • /
    • 2016
  • This paper presents Finger Keyboard which detects the user's key types on a keyboard drawn on the paper using a video camera. The Finger Keyboard software was written in standard C/C++ language and thus easy to port to other computing environments. We installed a popular USB-type web camera on a Windows PC and implemented the Finger Keyboard as a Windows application which detects key typing and then injects the key code into the message queue of the Windows operating system. Also we implemented the Finger Keyboard on the Raspberry Pi 2 embedded computer with a dedicated camera and connected it to the Android device as an external keyboard through the Bluetooth. The result of experiments showed that the average ratio of recognition success is around 80% at the typing speed of 120 characters per minute.