• 제목/요약/키워드: Real-Time Computer Vision

검색결과 361건 처리시간 0.036초

스테레오 비전을 이용한 포인팅 디바이스에 관한 연구 (A study on pointing device system using stereo vision)

  • 한승일;황용현;이병국;이준재
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제10권2호
    • /
    • pp.67-80
    • /
    • 2006
  • 본 논문에서는 스테레오 비전을 이용하여 기존의 포인팅 디바이스인 마우스를 대신할 새로운 포인팅 디바이스 방법을 제안 한다. 제안한 방법은 기존의 인식 장비들이 가진 마커에 의한 움직임 제약과 고가 장비의 단점을 극복하기 위해 컴퓨터 비전을 이용한다. 즉, 사람이 시각을 통해 정보를 인식하는 것과 동일하게 컴퓨터의 영상 정보를 이용하여 실시간으로 영상내의 컬러 영역의 분할을 통해 물체의 위치를 추적 및 정합하고 이의 위치를 스테레오 기하학 정보로부터 계산하여 포인팅 동작을 수행한다.

  • PDF

지능형 철도 시스템 모델 개발을 위한 컬러비전 기반의 소형 기차 위치 측정 (Estimation of Miniature Train Location by Color Vision for Development of an Intelligent Railway System)

  • 노광현;한민홍
    • 제어로봇시스템학회논문지
    • /
    • 제9권1호
    • /
    • pp.44-49
    • /
    • 2003
  • This paper describes a method of estimating miniature train location by color vision for development of an intelligent railway system model. In the teal world, to control trains automatically, GPS(Global Positioning System) is indispensable to determine the location of trains. A color vision system was used for estimating the location of trains in an indoor experiment. Two different rectangular color bars were attached to the top of each train as a means of identifying them. Several trains were detected where they were located on the track by color feature, geometric features and moment invariant, and tracked simultaneously. In the experiment the identity, location and direction of each train were estimated and transferred to the control computer using serial communication. Processing speed of up to 8 frames/sec could be achieved, which was enough speed for the real-time train control.

정밀부품의 비접촉 자동검사기술 개발 (Development of Non-Contacting Automatic Inspection Technology of Precise Parts)

  • 이우송;한성현
    • 한국공작기계학회논문집
    • /
    • 제16권6호
    • /
    • pp.110-116
    • /
    • 2007
  • This paper presents a new technique to implement the real-time recognition for shapes and model number of parts based on an active vision approach. The main focus of this paper is to apply a technique of 3D object recognition for non-contacting inspection of the shape and the external form state of precision parts based on the pattern recognition. In the field of computer vision, there have been many kinds of object recognition approaches. And most of these approaches focus on a method of recognition using a given input image (passive vision). It is, however, hard to recognize an object from model objects that have similar aspects each other. Recently, it has been perceived that an active vision is one of hopeful approaches to realize a robust object recognition system. The performance is illustrated by experiment for several parts and models.

HOG와 OS 퍼지-ELM를 이용한 비전 기반 차량 검출 시스템 (Vision-based Vehicle Detection Using HOG and OS Fuzzy-ELM)

  • 윤창용;이희진
    • 한국지능시스템학회논문지
    • /
    • 제25권6호
    • /
    • pp.621-628
    • /
    • 2015
  • 본 논문에서는 컴퓨터 비전 및 영상처리 기술을 접목하여 지능형 차량에 적용할 수 있는 실시간 차량 검출 알고리즘을 제안한다. 도로 환경의 빠르게 변화하는 배경과 차량의 다양성 때문에 차량의 실시간 검출은 부정확성 및 계산량 증가의 어려움을 가지고 있다. 본 논문은 기존 방법들의 이러한 문제점들을 해결하기 위하여 먼저, 복잡한 배경이 포함되어 있는 실시간 입력 영상으로부터 수직 에지 정보와 차량의 그림자 색정보를 사용하여 후보군을 검출한다. 다음으로, 검출된 후보군 영역들로부터 HOG 특징점을 추출한 후, 마지막으로 추출된 특징점들을 단일층 전방향 신경망 구조를 기반으로 하는 OS 퍼지-ELM을 사용하여 분류한다. 본 논문에서 제안된 방법을 사용하여 실험을 수행한 결과로써 기존의 ELM 및 OS-ELM 방법보다 계산량 및 정확성면에서 향상되었음을 보인다.

이동 객체 감시를 위한 실시간 객체추출 및 추적시스템 (Realtime Object Extraction and Tracking System for Moving Object Monitoring)

  • 강현중;이광형
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.59-68
    • /
    • 2005
  • 실시간 영상에서 객체 추적은 수년간 컴퓨터 비전 및 여러 실용적 응용 분야에서 관심을 가지는 주제중 하나이다. 하지만 배경영상의 잡음을 객체로 인식하는 오류로 인하여 추출하고자 하는 객체를 찾지 못하는 경우가 있다 본 논문에서는 실시간 영상에서 적응적 배경영상을 이용하여 객체를 추출하고 추적하는 방법을 제안한다 입력되는 영상에서 배경영역의 잡음을 제거하고 조명에 강인한 객체 추출을 위하여 객체 영역이 아닌 배경영역 부분을 실시간으로 갱신함으로써 적응적 배경영상을 생성한다. 그리고 배경영상과 카메라로부터 입력되는 입력영상과의 차를 이용하여 객체를 추출한다. 추출된 객체는 내부점을 이용하여 최소사각영역을 설정하고, 이를 통해 객체를 추적한다. 아울러 제안방법의 성능에 대한 실험결과를 기존 추적알고리즘과 비교, 분석하여 평가한다.

  • PDF

얼굴의 특이점 검출 및 실시간 추적을 이용한 e-Book 제어 (Unconstrained e-Book Control Program by Detecting Facial Characteristic Point and Tracking in Real-time)

  • 김현우;박주용;이정직;윤영로
    • 대한의용생체공학회:의공학회지
    • /
    • 제35권2호
    • /
    • pp.14-18
    • /
    • 2014
  • This study is about e-Book program based on human-computer interaction(HCI) system for physically handicapped person. By acquiring background knowledge of HCI, we know that if we use vision-based interface we can replace current computer input devices by extracting any characteristic point and tracing it. We decided betweeneyes as a characteristic point by analyzing facial input image using webcam. But because of three-dimensional structure of glasses, the person who is wearing glasses wasn't suitable for tracing between-eyes. So we changed characteristic point to the bridge of the nose after detecting between-eyes. By using this technique, we could trace rotation of head in real-time regardless of glasses. To test this program's usefulness, we conducted an experiment to analyze the test result on actual application. Consequently, we got 96.5% rate of success for controlling e-Book under proper condition by analyzing the test result of 20 subjects.

An Efficient Vision-based Object Detection and Tracking using Online Learning

  • Kim, Byung-Gyu;Hong, Gwang-Soo;Kim, Ji-Hae;Choi, Young-Ju
    • Journal of Multimedia Information System
    • /
    • 제4권4호
    • /
    • pp.285-288
    • /
    • 2017
  • In this paper, we propose a vision-based object detection and tracking system using online learning. The proposed system adopts a feature point-based method for tracking a series of inter-frame movement of a newly detected object, to estimate rapidly and toughness. At the same time, it trains the detector for the object being tracked online. Temporarily using the result of the failure detector to the object, it initializes the tracker back tracks to enable the robust tracking. In particular, it reduced the processing time by improving the method of updating the appearance models of the objects to increase the tracking performance of the system. Using a data set obtained in a variety of settings, we evaluate the performance of the proposed system in terms of processing time.

Correlation Extraction from KOSHA to enable the Development of Computer Vision based Risks Recognition System

  • Khan, Numan;Kim, Youjin;Lee, Doyeop;Tran, Si Van-Tien;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.87-95
    • /
    • 2020
  • Generally, occupational safety and particularly construction safety is an intricate phenomenon. Industry professionals have devoted vital attention to enforcing Occupational Safety and Health (OHS) from the last three decades to enhance safety management in construction. Despite the efforts of the safety professionals and government agencies, current safety management still relies on manual inspections which are infrequent, time-consuming and prone to error. Extensive research has been carried out to deal with high fatality rates confronting by the construction industry. Sensor systems, visualization-based technologies, and tracking techniques have been deployed by researchers in the last decade. Recently in the construction industry, computer vision has attracted significant attention worldwide. However, the literature revealed the narrow scope of the computer vision technology for safety management, hence, broad scope research for safety monitoring is desired to attain a complete automatic job site monitoring. With this regard, the development of a broader scope computer vision-based risk recognition system for correlation detection between the construction entities is inevitable. For this purpose, a detailed analysis has been conducted and related rules which depict the correlations (positive and negative) between the construction entities were extracted. Deep learning supported Mask R-CNN algorithm is applied to train the model. As proof of concept, a prototype is developed based on real scenarios. The proposed approach is expected to enhance the effectiveness of safety inspection and reduce the encountered burden on safety managers. It is anticipated that this approach may enable a reduction in injuries and fatalities by implementing the exact relevant safety rules and will contribute to enhance the overall safety management and monitoring performance.

  • PDF

컴퓨터 비전 기술을 기반으로 한 자동 차량 감시 시스템 연구 (A Study on the automatic vehicle monitoring system based on computer vision technology)

  • 정하영;최종환;최영규;김현열;김태우
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권2호
    • /
    • pp.133-140
    • /
    • 2017
  • 본 논문은 컴퓨터 비전 기술을 기반으로 자동 차량 감시 시스템을 제안하였다. 실시간 주행표시 시스템은 ITS의 필수 요건을 충족하면서, 자동 감시제어가 가능한 시스템이다. 이러한 장점은 확실한 자동차 추적에 대해 주요 장애물 처리 시스템 적용할 경우, 움직이는 물체에 대한 그림자 추적이다. 추적 차량 이미지에서 모든 종류의 정보를 획득하기 위해 차량을 확실하게 감시 화면에 나타나게 하였다. 시간이 지남에 따라 차량을 정밀 추적 제어 할 필요가 있고, 입체 모델 기반접근 방식 또한 필요한 방식으로 적용하였다. 일반적으로 개체 또는 와이어 프레임 모델의 골격에 의해 차량의 각각의 유형을 나타내었고, 시스템이 실시간 실행되지 않더라도 차량 궤적은 3D기반 방식에서 높은 정밀도로 측정 될 수 있다는 점을 보여 준다. 본 논문에서는 차량, 배경, 그림자에 적용 가능하고, 도로 교통 감시의 시스템을 분할 방법을 역시 적용하였다. 과속 자동차의 속도 추적을 통해 낮은 레벨의 차량제어 추적기의 유효성 역시 실행 하였다. 결론에서 개발된 추적 제어 시스템에서 향상된 자동차 추적의 방법을 개선하고자 하였으며 고속도로 감시제어 시스템을 개발하고자 하였다.

TELE-OPERATIVE SYSTEM FOR BIOPRODUCTION - REMOTE LOCAL IMAGE PROCESSING FOR OBJECT IDENTIFICATION -

  • Kim, S. C.;H. Hwang;J. E. Son;Park, D. Y.
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2000년도 THE THIRD INTERNATIONAL CONFERENCE ON AGRICULTURAL MACHINERY ENGINEERING. V.II
    • /
    • pp.300-306
    • /
    • 2000
  • This paper introduces a new concept of automation for bio-production with tele-operative system. The proposed system showed practical and feasible way of automation for the volatile bio-production process. Based on the proposition, recognition of the job environment with object identification was performed using computer vision system. A man-machine interactive hybrid decision-making, which utilized a concept of tele-operation was proposed to overcome limitations of the capability of computer in image processing and feature extraction from the complex environment image. Identifying watermelons from the outdoor scene of the cultivation field was selected to realize the proposed concept. Identifying watermelon from the camera image of the outdoor cultivation field is very difficult because of the ambiguity among stems, leaves, shades, and especially fruits covered partly by leaves or stems. The analog signal of the outdoor image was captured and transmitted wireless to the host computer by R.F module. The localized window was formed from the outdoor image by pointing to the touch screen. And then a sequence of algorithms to identify the location and size of the watermelon was performed with the local window image. The effect of the light reflectance of fruits, stems, ground, and leaves were also investigated.

  • PDF