• Title/Summary/Keyword: 카메라 기반 인식

Search Result 700, Processing Time 0.03 seconds

Technologies Trends in Image Big Data Analysis (영상 빅데이터 분석기술 동향)

  • Ko, J.G.;Bae, Y.S.;Park, J.Y.;Park, K.
    • Electronics and Telecommunications Trends
    • /
    • v.29 no.4
    • /
    • pp.21-29
    • /
    • 2014
  • 최근에 스마트폰, CCTV, 블랙박스, 고화질 카메라 등으로부터 수집되는 영상 데이터의 양이 급격히 증가하고 있어 이에 따른 비정형 영상 빅데이터를 기반으로 인물이나 사물 등을 인식하여 의미있는 정보를 추출하고 내용을 시각적으로 분석하고 활용하기 위한 요구사항이 증대되고 있다. 영상 빅데이터 분석기술은 이러한 대규모 영상들에 대해 학습 및 분석을 수행하여 원하는 영상을 검색하거나 이벤트 발생 등의 상황인식을 위한 제반 기술들을 말한다. 본고에서는 영상인식을 위한 학습기술 및 영상 빅데이터 분석기술의 현황 및 관련 이슈들에 관하여 살펴보고자 한다.

  • PDF

Image processing algorithm for preceding vehicle detection based on DLI (선형차량 인식을 위한 DLI 기반의 영상처리 알고리즘)

  • Hwang, H.J.;Baek, H.R.;Yi, U.K.
    • Proceedings of the KIEE Conference
    • /
    • 2003.07d
    • /
    • pp.2459-2461
    • /
    • 2003
  • 본 논문은 차량 내에 설치된 두 대의 CCD 카메라를 이용하여 도로 영상으로부터 주행차선내에 있는 장애물을 인식하는 새로운 알고리즘을 제시한다. 제안된 알고리즘은 주행하는 차선과 관련이 있는 차선 정보만을 이용하여, 스테레오 영상에서 변이도를 추출할 수 있는 변이도 함수인 DLI(Disparity of lane-related information)를 정의하였다. DLI는 선행 차량과 같은 장애물은 주위보다 상대적으로 큰 에지값을 가진다는 특성을 이용하여, 주행차선 내에 있는 장애물의 유무를 검출하고 위치를 유추한다. 제안된 방법은 특징점의 탐색공간을 현저히 줄여 실시간 처리문제를 해결한 수 있는 장점을 가지고 있다. 본 논문에서는 DLI를 이용한 선행차량 인식기법의 성능을 검증하기 위하여 다양한 환경의 도로영상에 알고리즘을 적용하여 제안한 방법의 우수함을 확인하였다.

  • PDF

A Study on the Automatic Door Speed Control Design by the Identification of Auxiliary Pedestrian Using Artificial Intelligence (AI) (인공지능(AI)를 활용한 보조보행기구 식별에 따른 자동문 속도 조절 설계에 대한 연구)

  • Kim, yu-min;Choi, kyu-min;Shin, jun-pyo;Seong, Seung-min;Lee, byung-kwon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.237-239
    • /
    • 2021
  • 본 논문에서는 YOLO 시스템을 사용하여 보조 보행 기구를 인식 한 후 자동문 속도 조절에 대한 방법을 제안한다. Visual studio, OpenCV, CUDA를 활용하여 보조 보행 기구를 인식이 가능하게 신경망 훈련 및 학습 한 데이터를 기반으로 Raspberry Pi, 카메라 모듈을 활용하여 실시간 모니터링을 통해 보조 보행 기구를 인식하여 자동문의 속도를 조절을 구현했다. 이로써 거동이 불편한 장애인은 원활하게 건물 출입이 가능하다.

  • PDF

A Study on Traffic Sign Recognition Using RTOS (RTOS를 이용한 교통 표지판 인식에 관한 연구)

  • Sung-Gu Kim;Jin-Kyu Kim;Na-Kyeong Kwon;Sung-Keun Cha;Jae-Wook Jeon
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.9-10
    • /
    • 2024
  • 본 연구에서는 Renesas RA6M3 Embedded board와 RTOS를 기반으로 하는 교통 표지판 인식 시스템을 구현한다. 초음파 센서 3개를 활용해 상단부, 중심부, 하단부에서 도형을 감지하고, 모터를 제어하여 각각의 초음파 센서로 거리를 판단해 표지판 도형을 인식하게 한다. 이 시스템은 카메라 및 LiDAR와 같은 값비싼 장비보다 상대적으로 저렴한 초음파 센서를 사용하여 차량용 전장 시스템의 원가를 낮추는 데 기여한다. 실제 자동차에서 해당 기술을 쓰기 위해서는 추가적인 보완이 요구될 수 있으나, 본 연구는 새로운 아이디어의 발상 및 하드웨어의 구체적인 구현 방안을 제시함으로써 차후 연구의 방향성을 제시하고자 한다.

Image Recognition-based Learning Space Congestion Analysis App Development (영상인식 기반 학습공간 혼잡도 분석 앱 개발)

  • Jungkyun Lee;Youngchan Lee;Minsung Kim;Minseong Cho;Hong Min
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.179-180
    • /
    • 2024
  • 영상에서 객체를 인식하는 다양한 알고리즘이 제안되고 있으며 인식된 결과를 통해 새로운 서비스를 사용자에게 제공하는 사례가 늘어나고 있다. 본 논문에서는 카메라를 탑재한 임베디드 기기에서 영상을 촬영하고 촬영된 영상에서 의자와 사람을 탐지하여 학습공간의 혼잡도를 분석하는 앱을 설계하고 구현하였다. 구현 과정에서 실험을 통해 실시간성 확보 여부와 의자를 통한 빈자리 분할이 가능하다는 것과 앱에서도 모니터링 할 수 있다는 것을 검증하였다.

A Robot application design using a smartphone based on OPRoS (스마트폰을 이용한 로봇 어플리케이션의 OPRoS 기반 개발 방법에 대한 연구)

  • Lee, Kyung-Su;Kang, Dong-Byoung;Ji, Sang-Hoon;Jeong, Gu-Min
    • Annual Conference of KIPS
    • /
    • 2012.04a
    • /
    • pp.618-621
    • /
    • 2012
  • 본 논문에서는 스마트폰을 기반으로 로봇을 원격 제어하는 어플리케이션을 OPRoS를 활용한 개발 방법을 제안하고 스마트폰과 OPRoS기반의 로봇으로 구현한다. 컴포넌트 기반의 로봇용 미들웨어인 OPRoS를 활용하면 이미 개발 되었거나 공개된 컴포넌트를 활용하여 개발의 시간 및 비용을 절약할 수 있는 장점이 있다. 이미 검증된 모터, 음성, TCP/UDP, 카메라 컴포넌트를 재활용하였다. 또한 오프로스의 통합된 개발환경을 통해 개발 시간을 더욱 단축시켰다. 실제 구현에서는 Wi-Fi기반의 TCP, UDP 컴포넌트를 활용하여 로봇과 스마트폰간 송수신되는 데이터의 목적에 따른 적절한 통신 방식을 사용하였다. 또한 이미지 전송, 음악 재생, 메시지 전송, 음성 인식 등의 기능을 활용하여 구현된 시스템을 검증 하였다.

Hand Gesture Recognition Result Using Dynamic Training (동적 학습을 이용한 손동작 인식 결과)

  • Jeoung, You-Sun;Park, Dong-Suk;Youn, Young-Ji;Shin, Bo-Kyoung;Kim, Hye-Min;Ra, Sang-Dong;Bae, Cheol-Soo
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2007.06a
    • /
    • pp.861-864
    • /
    • 2007
  • 본 논문에서는 카메라-투영 시스템에서 비전에 기반을 둔 팔동작 인식을 위한 새로운 알고리즘을 제안하고 있다. 제안된 인식방법은 정적인 팔동작 분류를 위하여 푸리에 변환을 사용하였다. 팔 분할은 개선된 배경 제거 방법을 사용하였다. 대부분의 인식방법들이 같은 피검자에 의해 학습과 실험이 이루어지고 상호작용 이전에 학습단계가 필요하다. 그러나 학습되지 않은 다양한 상황에 대해서도 상호작용을 위해 동작 인식이 요구된다. 그러므로 본 논문에서는 인식 작업 중에 검출된 불완전한 동작들을 정정하여 적용하였다. 그 결과 사용자와 독립되게 동작을 인식함으로써 새로운 사용자에게 신속하게 온라인 적용이 가능하였다.

  • PDF

Dynamic Training Algorithm for Hand Gesture Recognition System (손동작 인식 시스템을 위한 동적 학습 알고리즘)

  • Kim, Moon-Hwan;hwang, suen ki;Bae, Cheol-Soo
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.2 no.2
    • /
    • pp.51-56
    • /
    • 2009
  • We developed an augmented new reality tool for vision-based hand gesture recognition in a camera-projector system. Our recognition method uses modified Fourier descriptors for the classification of static hand gestures. Hand segmentation is based on a background subtraction method, which is improved to handle background changes. Most of the recognition methods are trained and tested by the same service-person, and training phase occurs only preceding the interaction. However, there are numerous situations when several untrained users would like to use gestures for the interaction. In our new practical approach the correction of faulty detected gestures is done during the recognition itself. Our main result is the quick on-line adaptation to the gestures of a new user to achieve user-independent gesture recognition.

  • PDF

Real-Time Cat Behavior Recognition System using Two-Stream YOLO (Two-Stream YOLO를 이용한 실시간 고양이 행동 인식)

  • Lee, Jun-Hee;Lee, Jonguk;Choi, Yoona;Park, Daihee;Chung, Yongwha
    • Annual Conference of KIPS
    • /
    • 2019.05a
    • /
    • pp.408-411
    • /
    • 2019
  • 고양이를 기르는 가구의 증가와 함께 건강한 애묘 방법을 찾는 애묘인 또한 증가하고 있다. 본 논문에서는 고양이의 건강 상태를 모니터링하기 위해 반드시 선행되어야만 하는 고양이의 행동 정보를 딥러닝 방법론을 기반으로 인식하고자 한다. 인식을 위해 먼저, 카메라 센서를 이용하여 고양이 영상 데이터를 수집한 후, 수집된 영상에서 RGB 프레임과 optical flow 프레임 정보를 각각 수집한다. 각각의 프레임은 RGB Network 와 Flow Network 에 입력되고, 두 네트워크 결과 정보에 대하여 concatenation 을 수행한다. 연계된 특징 정보는 행동 인식 알고리즘인 Two-Stream YOLO 에 입력이 되어 고양이의 행동을 인식한다. 고양이의 행동 인식은 일곱 개의 클래스로 나누어 진행하였다. 행동 인식 실험 수행 결과 mAP와 f1-score 모두에서 0.9이상의 높은 성능을 보였으며, 실시간으로 수행이 가능함을 확인하였다.

Dynamic Training Algorithm for Hand Gesture Recognition System (손동작 인식 시스템을 위한 동적 학습 알고리즘)

  • Bae, Cheol-Soo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.11 no.7
    • /
    • pp.1348-1353
    • /
    • 2007
  • We developed an augmented new reality tool for vision-based hand gesture recognition in a camera-projector system. Our recognition method uses modified Fourier descriptors for the classification of static hand gestures. Hand segmentation is based on a background subtraction method, which is improved to handle background changes. Most of the recognition methods are trained and tested by the same service-person, and training phase occurs only preceding the interaction. However, there are numerous situations when several untrained users would like to use gestures for the interaction. In our new practical approach the correction of faulty detected gestures is done during the recognition itself. Our main result is the quick on-line adaptation to the gestures of a new user to achieve user-independent gesture recognition.