• 제목/요약/키워드: Fusion matching

검색결과 140건 처리시간 0.023초

KOMPSAT-3·3A 위성영상 글로벌 융합활용을 위한 다중센서 위성영상과의 정밀영상정합 (Fine-image Registration between Multi-sensor Satellite Images for Global Fusion Application of KOMPSAT-3·3A Imagery)

  • 김태헌;윤예린;이창희;한유경
    • 대한원격탐사학회지
    • /
    • 제38권6_4호
    • /
    • pp.1901-1910
    • /
    • 2022
  • 뉴스페이스(new space) 시대가 도래함에 따라 국내 KOMPSAT-3·3A 위성영상과 해외 위성영상과의 글로벌 융합활용 기술확보가 대두되고 있다. 일반적으로 다중센서 위성영상은 취득 당시의 다양한 외부요소로 인해 영상 간 상대적인 기하오차(relative geometric error)가 발생하며, 이로 인해 위성영상 산출물의 품질이 저하된다. 따라서 본 연구에서는 KOMPSAT-3·3A 위성영상과 해외 위성영상 간 존재하는 상대기하오차를 최소화하기 위한 정밀영상정합(fine-image registration) 방법론을 제안한다. KOMPSAT-3·3A 위성영상과 해외 위성영상 간 중첩영역을 선정한 후 두 영상 간 공간해상도를 통일한다. 이어서, 특징 및 영역 기반 정합기법을 결합한 형태의 하이브리드(hybrid) 정합기법을 이용하여 정합점(tie-point)을 추출한다. 그리고 피라미드(pyramid) 영상 기반의 반복적 정합을 수행하여 정밀영상정합을 수행한다. KOMPSAT-3·3A 위성영상과 Sentinel-2A 및 PlanetScope 영상을 이용하여 제안기법의 정확도 및 성능을 평가하였다. 그 결과, Sentienl-2A 영상 기준 평균 Root Mean Square Error (RMSE) 1.2 pixels, PlanetScope 영상 기준 평균 RMSE 3.59 pixels의 정확도가 도출되었다. 이를 통해 제안기법을 이용하여 효과적으로 정밀영상정합을 수행할 수 있을 것으로 사료된다.

Multiple Color and ToF Camera System for 3D Contents Generation

  • Ho, Yo-Sung
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권3호
    • /
    • pp.175-182
    • /
    • 2017
  • In this paper, we present a multi-depth generation method using a time-of-flight (ToF) fusion camera system. Multi-view color cameras in the parallel type and ToF depth sensors are used for 3D scene capturing. Although each ToF depth sensor can measure the depth information of the scene in real-time, it has several problems to overcome. Therefore, after we capture low-resolution depth images by ToF depth sensors, we perform a post-processing to solve the problems. Then, the depth information of the depth sensor is warped to color image positions and used as initial disparity values. In addition, the warped depth data is used to generate a depth-discontinuity map for efficient stereo matching. By applying the stereo matching using belief propagation with the depth-discontinuity map and the initial disparity information, we have obtained more accurate and stable multi-view disparity maps in reduced time.

Using Keystroke Dynamics for Implicit Authentication on Smartphone

  • Do, Son;Hoang, Thang;Luong, Chuyen;Choi, Seungchan;Lee, Dokyeong;Bang, Kihyun;Choi, Deokjai
    • 한국멀티미디어학회논문지
    • /
    • 제17권8호
    • /
    • pp.968-976
    • /
    • 2014
  • Authentication methods on smartphone are demanded to be implicit to users with minimum users' interaction. Existing authentication methods (e.g. PINs, passwords, visual patterns, etc.) are not effectively considering remembrance and privacy issues. Behavioral biometrics such as keystroke dynamics and gait biometrics can be acquired easily and implicitly by using integrated sensors on smartphone. We propose a biometric model involving keystroke dynamics for implicit authentication on smartphone. We first design a feature extraction method for keystroke dynamics. And then, we build a fusion model of keystroke dynamics and gait to improve the authentication performance of single behavioral biometric on smartphone. We operate the fusion at both feature extraction level and matching score level. Experiment using linear Support Vector Machines (SVM) classifier reveals that the best results are achieved with score fusion: a recognition rate approximately 97.86% under identification mode and an error rate approximately 1.11% under authentication mode.

영상 기반 센서 융합을 이용한 이쪽로봇에서의 환경 인식 시스템의 개발 (Vision Based Sensor Fusion System of Biped Walking Robot for Environment Recognition)

  • 송희준;이선구;강태구;김동원;서삼준;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.123-125
    • /
    • 2006
  • This paper discusses the method of vision based sensor fusion system for biped robot walking. Most researches on biped walking robot have mostly focused on walking algorithm itself. However, developing vision systems for biped walking robot is an important and urgent issue since biped walking robots are ultimately developed not only for researches but to be utilized in real life. In the research, systems for environment recognition and tole-operation have been developed for task assignment and execution of biped robot as well as for human robot interaction (HRI) system. For carrying out certain tasks, an object tracking system using modified optical flow algorithm and obstacle recognition system using enhanced template matching and hierarchical support vector machine algorithm by wireless vision camera are implemented with sensor fusion system using other sensors installed in a biped walking robot. Also systems for robot manipulating and communication with user have been developed for robot.

  • PDF

센서 융합 기반 정밀 측위를 위한 노면 표시 검출 (Road Surface Marking Detection for Sensor Fusion-based Positioning System)

  • 김동석;정호기
    • 한국자동차공학회논문집
    • /
    • 제22권7호
    • /
    • pp.107-116
    • /
    • 2014
  • This paper presents camera-based road surface marking detection methods suited to sensor fusion-based positioning system that consists of low-cost GPS (Global Positioning System), INS (Inertial Navigation System), EDM (Extended Digital Map), and vision system. The proposed vision system consists of two parts: lane marking detection and RSM (Road Surface Marking) detection. The lane marking detection provides ROIs (Region of Interest) that are highly likely to contain RSM. The RSM detection generates candidates in the regions and classifies their types. The proposed system focuses on detecting RSM without false detections and performing real time operation. In order to ensure real time operation, the gating varies for lane marking detection and changes detection methods according to the FSM (Finite State Machine) about the driving situation. Also, a single template matching is used to extract features for both lane marking detection and RSM detection, and it is efficiently implemented by horizontal integral image. Further, multiple step verification is performed to minimize false detections.

다층 실내 환경에서 계단 극복이 가능한 궤도형 로봇의 신뢰성 있는 자율 주행 정찰 시스템 (Reliable Autonomous Reconnaissance System for a Tracked Robot in Multi-floor Indoor Environments with Stairs)

  • 노주형;김보성;김도경;김지혁;심현철
    • 로봇학회논문지
    • /
    • 제19권2호
    • /
    • pp.149-158
    • /
    • 2024
  • This paper presents a robust autonomous navigation and reconnaissance system for tracked robots, designed to handle complex multi-floor indoor environments with stairs. We introduce a localization algorithm that adjusts scan matching parameters to robustly estimate positions and create maps in environments with scarce features, such as narrow rooms and staircases. Our system also features a path planning algorithm that calculates distance costs from surrounding obstacles, integrated with a specialized PID controller tuned to the robot's differential kinematics for collision-free navigation in confined spaces. The perception module leverages multi-image fusion and camera-LiDAR fusion to accurately detect and map the 3D positions of objects around the robot in real time. Through practical tests in real settings, we have verified that our system performs reliably. Based on this reliability, we expect that our research team's autonomous reconnaissance system will be practically utilized in actual disaster situations and environments that are difficult for humans to access, thereby making a significant contribution.

Incomplete Information Recognition Using Fuzzy Integrals Aggregation: With Application to Multiple Matchers for Image Verification

  • Kim, Seong H.;M. Kamel
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.28-31
    • /
    • 2003
  • In the present work, a main purpose is to propose a fuzzy integral-based aggregation framework to complementarily combine partial information due to lack of completeness. Based on Choquet integral (CI) viewed as monotone expectation, we take into account complementary, non-interactive, and substitutive aggregations of different sources of defective information. A CI-based system representing upper, conventional, and lower expectations is designed far handling three aggregation attitudes towards uncertain information. In particular, based on Choquet integrals for belief measure, probability measure, and plausibility measure, CI$\_$bi/-, CI$\_$pr/ and CI$\_$pl/-aggregator are constructed, respectively. To illustrate a validity of proposed aggregation framework, multiple matching systems are developed by combining three simple individual template-matching systems and tested under various image variations. Finally, compared to individual matchers as well as other traditional multiple matchers in terms of an accuracy rate, it is shown that a proposed CI-aggregator system, {CI$\_$bl/-aggregator, CI$\_$pl/-aggregator, Cl$\_$pl/-aggregator}, is likely to offer a potential framework for either enhancing completeness or for resolving conflict or for reducing uncertainty of partial information.

  • PDF

입체항공사진과 항공 LiDAR를 이용한 TIN 기반 정합 (TIN based Matching using Stereo Airphoto and Airborne LiDAR)

  • 김형태;한동엽
    • 한국측량학회지
    • /
    • 제26권4호
    • /
    • pp.443-452
    • /
    • 2008
  • 본 연구에서는 항공사진과 LiDAR 데이터를 융합하여 항공사진에 나타난 건물의 형상을 표현하는 3차원 선형정보를 추정하기 위하여 두 가지 과정을 수행하였다. 첫째, LiDAR 데이터를 영상과 같은 2D의 투영된 데이터로 만들었다. 이를 위하여 LiDAR 데이터의 특성상 정보가 부족한 건물경계 지역에서 가시성 문제를 해결하기 위해, 가상점을 추가한다. 수정된LiDAR데이터를 불규칙 삼각망으로 구성하고, 영상에서의 가시 삼각형을 판단하여, 영상화소값마다 삼각망 정보를 참조할 수 있게 한다. 둘째, 추출된 가시지역 정보와2D불규칙삼각망을 결합하여 입체영상으로부터3차원 선분을 추출하였다.입체영상에 존재하는 선분은 TIN기반의 정합방법을 사용하였다. TIN기반의 정합조건은 기존의 공액기하 사변형 조건보다 에지정합쌍 탐색율을 약 20% 향상시킬 수 있었다.

SURF와 지역적 위상 상관도를 활용한 광학 및 열적외선 영상 간 정합쌍 추출 (Matching Points Extraction Between Optical and TIR Images by Using SURF and Local Phase Correlation)

  • 한유경;최재완
    • 대한공간정보학회지
    • /
    • 제23권1호
    • /
    • pp.81-88
    • /
    • 2015
  • 위성센서 기술이 발전함에 따라서 가시광선, 적외선, 열적외선 영역 등의 파장대를 탐지하는 다양한 센서들이 발사되고 있다. 이에 따라, 다중센서 영상의 융합 및 통합에 대한 연구들이 진행되고 있으며, 이를 위해서는 다중센서의 정합이 필수적이다. 위성영상의 정합 및 자동기하보정을 위하여 SIFT, SURF와 같은 알고리즘이 제안되었다. 그러나, 광학영상과 열적외선 상의 경우 다른 분광특성을 가지고 있기 때문에, 기존의 영상정합기법을 적용할 경우에는 높은 정확도를 확보하기 어려운 문제를 지닌다. 본 연구에서는 SURF를 이용하여 참조영상의 특징점을 추출하였으며, 추출된 특징점의 위치를 기반으로 지역적 상관도를 추정하여 정합쌍을 추출하고자 하였다. 지역적 상관도의 경우에는 퓨리에 변환을 기반으로 하는 위상 상관도 기법을 적용하였다. 가상의 고해상도 다중센서 영상과 Landsat-8, ASTER 영상을 이용한 실험결과, 기존의 SURF를 활용한 정합기법과 비교하여 본 연구에서 제안한 방법이 두 영상 간 정합쌍을 더욱 효과적으로 추출할 수 있음을 확인하였다.

일반국도의 지점 및 구간검지기 자료의 융합을 통한 통행시간 추정 알고리즘 개발 (A Link Travel Time Estimation Algorithm Based on Point and Interval Detection Data over the National Highway Section)

  • 김성현;임강원;이영인
    • 대한교통학회지
    • /
    • 제23권5호
    • /
    • pp.135-146
    • /
    • 2005
  • 현재까지 다양한 검지기로부터 추정되는 통행시간의 융합에 관한 연구는 주로 GPS, Probe 자료 등 간헐적인 자료에 기반하여 이루어져 왔다. 이러한 간헐적 자료의 분산비에 기초한 융합모형은 번호판 인식 AVI와 같이 다량의 자료 구득이 용이한 시스템에는 적합하지 않다. 따라서, 본 연구는 지점검지기와 번호판 인식 AVI를 기반으로 각각 산출한 통행시간의 융합모형을 개발하고자 수행되었다. 본 연구에서는 지점검지기와 번호판인식 AVI 통행시간의 융합을 위해 최적화 융합모형과 비례화 융합모형을 각각 개발하였다. 검증 결과, 최적화 융합모형이 가장 우수한 추정력을 보여주었다. 최적화 융합모형은 실시간 이력자료를 기반으로 융합 가중치를 산정하여 현재 시간대에 적용하는 실시간 차원의 동적 융합비 예측 모형이다. 본 연구결과는 향후 국도교통관리 및 정보제공시스템에 유용하게 적용될 것으로 기대된다. 그러나, 향후 AVI의 적정설치간격과 설치차로에 따른 매칭율을 고려한 보다 심도있는 연구를 필요로 한다.