• 제목/요약/키워드: multi-Object

검색결과 1,215건 처리시간 0.027초

시각 요소와 시각 변수를 통한 시각 객체 질의어(VOQL)의 개선 (Improving Visual Object Query language (VOQL) by Introducing Visual Elements and visual Variables)

  • 이석균
    • 한국정보처리학회논문지
    • /
    • 제6권6호
    • /
    • pp.1447-1457
    • /
    • 1999
  • 최근 제안된 시각 객체 질의어(VOQL)는 시각 질의어로 스키마 정보가 시각적으로 질의 표현에 포함되므로 복잡한 구조의 데이터에 대한 질의를 효과적으로 표현할 수 있는 객체 지향 데이터베이스 질의어이다. VOQL은 귀납적으로 정의된 시맨턱을 갖는 그래프 기반 언어로 다양한 텍스트 경로식들을 그래프로 간결하게 표현 할 뿐 아니라 복잡한 경로식의 시맨틱을 명확하게 전달한다. 그러나 기존의 VOQL은 모든 속성을 다중 값으로 가정하고 있고, 객체변수의 바인딩 개념을 시각화하고 있지 못하고 있다. 이로 인해 VOQL 질의문의 표현이 직관적이지 못할 뿐 아니라 이론적 확장이 쉽지 않다. 본 논문에서는 이러한 문제를 해결하도록 VOQL을 개선하고 한다. 단일 값과 다중 값을 갖는 속성의 결과를 각각 시각 요소와 서브 블랍을 통해 시각화하고, 시각변수를 도입하여 객체 변수의 바인딩을 명시화하여 질의문의 시맨틱을 직관적이고, 명확하게 하고 있다.

  • PDF

지능형 관제시스템을 위한 딥러닝 기반의 다중 객체 분류 및 추적에 관한 연구 (Research of Deep Learning-Based Multi Object Classification and Tracking for Intelligent Manager System)

  • 이준환
    • 스마트미디어저널
    • /
    • 제12권5호
    • /
    • pp.73-80
    • /
    • 2023
  • 최근 지능형 관제 시스템은 다양한 응용 분야에서 빠르게 발전하고 있으며, 딥러닝, IoT, 클라우드 컴퓨팅 등의 기술이 지능형 관제 시스템에 활용하는 방안이 연구되고 있다. 지능형 관제 시스템에서 중요한 기술은 영상에서 객체를 인식하고 추적하는 것이다. 그러나 기존의 다중 객체 추적 기술은 정확도 및 속도에서 문제점을 가지고 있다. 본 논문에서는 객체 추적의 정확성을 높이고, 객체가 서로 겹쳐있거나 동일한 클래스에 속하는 객체들이 많을 경우에도 빠르고 정확하게 추적 가능한 원샷 아키텍처 기반의 YOLO v5와 YOLO v6을 사용하여 실시간 지능형 관제시스템을 구현하였다. 실험은 YOLO v5와 YOLO v6를 비교하여 평가하였다. 실험결과 YOLO v6 모델이 지능형 관제시스템에 적합한 성능을 보여주고 있다. 실험결과 YOLO v6 모델이 지능형 관제시스템에 적합한 성능을 보여주고 있다.

Dual-stream Co-enhanced Network for Unsupervised Video Object Segmentation

  • Hongliang Zhu;Hui Yin;Yanting Liu;Ning Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.938-958
    • /
    • 2024
  • Unsupervised Video Object Segmentation (UVOS) is a highly challenging problem in computer vision as the annotation of the target object in the testing video is unknown at all. The main difficulty is to effectively handle the complicated and changeable motion state of the target object and the confusion of similar background objects in video sequence. In this paper, we propose a novel deep Dual-stream Co-enhanced Network (DC-Net) for UVOS via bidirectional motion cues refinement and multi-level feature aggregation, which can fully take advantage of motion cues and effectively integrate different level features to produce high-quality segmentation mask. DC-Net is a dual-stream architecture where the two streams are co-enhanced by each other. One is a motion stream with a Motion-cues Refine Module (MRM), which learns from bidirectional optical flow images and produces fine-grained and complete distinctive motion saliency map, and the other is an appearance stream with a Multi-level Feature Aggregation Module (MFAM) and a Context Attention Module (CAM) which are designed to integrate the different level features effectively. Specifically, the motion saliency map obtained by the motion stream is fused with each stage of the decoder in the appearance stream to improve the segmentation, and in turn the segmentation loss in the appearance stream feeds back into the motion stream to enhance the motion refinement. Experimental results on three datasets (Davis2016, VideoSD, SegTrack-v2) demonstrate that DC-Net has achieved comparable results with some state-of-the-art methods.

금속에 부착 가능한 UHF 대역 RFID 태그 안테나 (UHF Band RFID Tag Antenna Mountable on metallic Object)

  • 정준모;유병길;정병운;이병제
    • 한국ITS학회 논문지
    • /
    • 제5권1호
    • /
    • pp.65-70
    • /
    • 2006
  • 본 논문에서는 금속 물질에 부착 가능한 UHF 대역 RFID(Radio Frequency Identification) 수동형 태그 안테나를 제안하였다. 제안된 태그 안테나는 일반적인 PIFA(Planar Inverted-F Antenna), IFA(Inverted-F Antenna)형태의 안테나를 갖는 태그보다 부착 되는 금속 물질 크기에 상당히 둔감한 특성을 나타내었다. 안테나의 구조는 멀티 층(multi layer)을 구성하였고, "L"자 슬릿을 추가 하여 방사 패치의 크기를 줄였다. 제안된 태그 안테나의 분석을 위해 HFSS 시뮬레이션 툴(tool)을 사용 하였으며, 후방산란(back-scattering)방법을 이용하여 측정하였다. 시뮬레이션과 측정은 금속 물질 크기를 변화시키면서 태그 안테나의 성능을 확인하였다.

  • PDF

체적 홀로그램을 이용한 무안경 다안식 3D 디스플레이 시스템 (Autostereoscopic Multiview 3D Display System based on Volume Hologram)

  • 이승현;이상훈
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권12호
    • /
    • pp.1609-1616
    • /
    • 2001
  • 본 논문에서는 체적 홀로그램을 이용한 무안경 3차원 디스플레이 시스템을 제안하였다. 디스플레이 평면에서 다시점 스테레오 영상을 관찰할 수 있도록 각 다중화된 기준파와 물체파를 간섭시킨 후 격자 패턴을 체적홀로그램에 기록하였다. 디스플레이 하고자 하는 다안식 영상으로 구성된 물체파가 시분할적으로 update 되며 광굴절 매질에 입사될 때 브래그 조건을 만족시키면, 출력 평면에서는 회절된 영상으로부터 다안식 3차원 영상을 관찰할 수 있다. 본 시스템을 이용함으로써 시점의 증가에 따른 해상도의 저하가 없는 고해상 다시점 3차원 디스플레이를 구성할 수 있다.

  • PDF

Multi-robot Mapping Using Omnidirectional-Vision SLAM Based on Fisheye Images

  • Choi, Yun-Won;Kwon, Kee-Koo;Lee, Soo-In;Choi, Jeong-Won;Lee, Suk-Gyu
    • ETRI Journal
    • /
    • 제36권6호
    • /
    • pp.913-923
    • /
    • 2014
  • This paper proposes a global mapping algorithm for multiple robots from an omnidirectional-vision simultaneous localization and mapping (SLAM) approach based on an object extraction method using Lucas-Kanade optical flow motion detection and images obtained through fisheye lenses mounted on robots. The multi-robot mapping algorithm draws a global map by using map data obtained from all of the individual robots. Global mapping takes a long time to process because it exchanges map data from individual robots while searching all areas. An omnidirectional image sensor has many advantages for object detection and mapping because it can measure all information around a robot simultaneously. The process calculations of the correction algorithm are improved over existing methods by correcting only the object's feature points. The proposed algorithm has two steps: first, a local map is created based on an omnidirectional-vision SLAM approach for individual robots. Second, a global map is generated by merging individual maps from multiple robots. The reliability of the proposed mapping algorithm is verified through a comparison of maps based on the proposed algorithm and real maps.

Activity Object Detection Based on Improved Faster R-CNN

  • Zhang, Ning;Feng, Yiran;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.416-422
    • /
    • 2021
  • Due to the large differences in human activity within classes, the large similarity between classes, and the problems of visual angle and occlusion, it is difficult to extract features manually, and the detection rate of human behavior is low. In order to better solve these problems, an improved Faster R-CNN-based detection algorithm is proposed in this paper. It achieves multi-object recognition and localization through a second-order detection network, and replaces the original feature extraction module with Dense-Net, which can fuse multi-level feature information, increase network depth and avoid disappearance of network gradients. Meanwhile, the proposal merging strategy is improved with Soft-NMS, where an attenuation function is designed to replace the conventional NMS algorithm, thereby avoiding missed detection of adjacent or overlapping objects, and enhancing the network detection accuracy under multiple objects. During the experiment, the improved Faster R-CNN method in this article has 84.7% target detection result, which is improved compared to other methods, which proves that the target recognition method has significant advantages and potential.

Object Detection and Localization on Map using Multiple Camera and Lidar Point Cloud

  • Pansipansi, Leonardo John;Jang, Minseok;Lee, Yonsik
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.422-424
    • /
    • 2021
  • In this paper, it leads the approach of fusing multiple RGB cameras for visual objects recognition based on deep learning with convolution neural network and 3D Light Detection and Ranging (LiDAR) to observe the environment and match into a 3D world in estimating the distance and position in a form of point cloud map. The goal of perception in multiple cameras are to extract the crucial static and dynamic objects around the autonomous vehicle, especially the blind spot which assists the AV to navigate according to the goal. Numerous cameras with object detection might tend slow-going the computer process in real-time. The computer vision convolution neural network algorithm to use for eradicating this problem use must suitable also to the capacity of the hardware. The localization of classified detected objects comes from the bases of a 3D point cloud environment. But first, the LiDAR point cloud data undergo parsing, and the used algorithm is based on the 3D Euclidean clustering method which gives an accurate on localizing the objects. We evaluated the method using our dataset that comes from VLP-16 and multiple cameras and the results show the completion of the method and multi-sensor fusion strategy.

  • PDF

실시간 객체 모델의 다중 스레드 구현으로의 스케줄링을 고려한 자동화된 변환 (Automated Schedulability-Aware Mapping of Real-Time Object-Oriented Models to Multi-Threaded Implementations)

  • 홍성수
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권2호
    • /
    • pp.174-182
    • /
    • 2002
  • 실시간 시스템이 복잡해짐에 따라 이를 개발하는 과정에서 객체 지향 설계 방법론과 이를 지원하는 CASE 도구들이 널리 사용되고 있다. 그러나 이런 객체 지향 CASE 도구를 사용할 경우, 설계자들은 별도의 과정으로 객체 중심으로 설계된 모델을 실제 수행되는 주체인 태스크로 변환시켜야 한다. 불행하게도 객체 모델과 태스크는 특성이 근본적으로 다르고, 스케줄 가능성을 분석하기가 어렵기 때문에 이러한 과정을 자동화하기는 매우 어렵다. 이 문제를 해결하기 위하여 많은 CASE 도구에서는 개발자가 직접 수동으로 객체를 태스크로 변환시키도록 요구하고 있다. 결과적으로 개발자들은 자신의 경험을 바탕으로 하여 임시 변통적인 방법에 의존하여 태스크를 유도하고 있다. 유도된 태스크 집합은 결과 시스템의 스케줄 가능성에 직접적으로 중요한 영향을 미친다. 본 논문에서는 실시간 객체 지향 설계 모델을 스케줄 가능성을 고려해 다중 스레드 구현으로 자동적으로 변환하는 방법을 제안한다. 본 논문에서 태스크는 다른 주기와 종료시한을 갖는 상호 배타적인 트랜잭션들로 이루어진다. 이러한 새로운 태스크 모델에 대하여 스케줄 가능성 분석 알고리즘을 제시한다. 또한 제안된 방법을 지원하기 위하여 런 타임 시스템과 코드 생성이 어떻게 지원되어야 하는지에 대하여 설명한다. 사례 연구는 단일 태스크 매핑의 부적절성을 보여줌과 함께, 다중 태스크를 수동으로 유도하는 것이 매우 어렵고, 제안된 방법이 실질적으로 유용하다는 것을 명백하게 보여준다.

Multi-camera System Calibration with Built-in Relative Orientation Constraints (Part 2) Automation, Implementation, and Experimental Results

  • Lari, Zahra;Habib, Ayman;Mazaheri, Mehdi;Al-Durgham, Kaleel
    • 한국측량학회지
    • /
    • 제32권3호
    • /
    • pp.205-216
    • /
    • 2014
  • Multi-camera systems have been widely used as cost-effective tools for the collection of geospatial data for various applications. In order to fully achieve the potential accuracy of these systems for object space reconstruction, careful system calibration should be carried out prior to data collection. Since the structural integrity of the involved cameras' components and system mounting parameters cannot be guaranteed over time, multi-camera system should be frequently calibrated to confirm the stability of the estimated parameters. Therefore, automated techniques are needed to facilitate and speed up the system calibration procedure. The automation of the multi-camera system calibration approach, which was proposed in the first part of this paper, is contingent on the automated detection, localization, and identification of the object space signalized targets in the images. In this paper, the automation of the proposed camera calibration procedure through automatic target extraction and labelling approaches will be presented. The introduced automated system calibration procedure is then implemented for a newly-developed multi-camera system while considering the optimum configuration for the data collection. Experimental results from the implemented system calibration procedure are finally presented to verify the feasibility the proposed automated procedure. Qualitative and quantitative evaluation of the estimated system calibration parameters from two-calibration sessions is also presented to confirm the stability of the cameras' interior orientation and system mounting parameters.