• 제목/요약/키워드: Scene Recognition

검색결과 193건 처리시간 0.03초

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.

소방공무원의 현장 활동 위험도 인식 (Recognition of scene activity risks among the firefighters)

  • 김종서;성동원;현성민;갈원모;이동호;박종태
    • 대한안전경영과학회지
    • /
    • 제15권4호
    • /
    • pp.105-111
    • /
    • 2013
  • This study aimed to identify the recognition of fire risks on their field operations among firefighters and contribute to setting up safety measures accordingly. A self-administered questionnaire were used to evaluate their recognition of job risks. About 93.4% of respondents answered they have exposed to job risks and 73.4% answered that they had high safety awareness. Our study showed that the lower service years and ranks the fire officers had, the lower relevance in statistics their awareness of the risk of the field operations and safety concerns had. The vulnerable group is those aged 20 to 39, with under 10 years of service, at a lower rank of senior fire sergeant. The study suggests coming up with the measures to motivate the officers to perform safe operations by improving their safety awareness.

정합확률을 이용한 겹쳐진 물체의 인식에 대하여 (On the Recognition of the Occluded Objects Using Matching Probability)

  • 남기곤;이수동;이양성
    • 대한전자공학회논문지
    • /
    • 제26권1호
    • /
    • pp.20-28
    • /
    • 1989
  • 부분적으로 가려진 물체의 인식은 공장자동화를 위한 실제 문제를 해결하는 비젼 응용 분야에서 중요한 문제가 되고 있다. 본 논문에서는 부분적으로 가려진 2차원 물체의 인식 문제를 해결하는 한 기법에 대하여 서술한다. 이러한 기법은 3단계로 구성된다. 즉, 1) 경계점 추적, 2) 선형선소의 추출, 3) 정합확률에 의한 정합벡타의 결정으로 구성된다. 80개의 모델을 포함하고 있는 20개의 영상화면에서 시험해 본 결과는 평균적으로 95%의 인식율을 나타내었다.

  • PDF

Implementation of Gesture Interface for Projected Surfaces

  • Park, Yong-Suk;Park, Se-Ho;Kim, Tae-Gon;Chung, Jong-Moon
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권1호
    • /
    • pp.378-390
    • /
    • 2015
  • Image projectors can turn any surface into a display. Integrating a surface projection with a user interface transforms it into an interactive display with many possible applications. Hand gesture interfaces are often used with projector-camera systems. Hand detection through color image processing is affected by the surrounding environment. The lack of illumination and color details greatly influences the detection process and drops the recognition success rate. In addition, there can be interference from the projection system itself due to image projection. In order to overcome these problems, a gesture interface based on depth images is proposed for projected surfaces. In this paper, a depth camera is used for hand recognition and for effectively extracting the area of the hand from the scene. A hand detection and finger tracking method based on depth images is proposed. Based on the proposed method, a touch interface for the projected surface is implemented and evaluated.

3 차원 거리 측정 장치 기반 이동로봇용 비선형 도로 인식 (3D Depth Measurement System-based Nonliniar Trail Recognition for Mobile Robots)

  • 김종만;김원섭;신동용
    • 한국전기전자재료학회:학술대회논문집
    • /
    • 한국전기전자재료학회 2007년도 하계학술대회 논문집 Vol.8
    • /
    • pp.517-518
    • /
    • 2007
  • A method to recognize unpaved road region using a 3D depth measurement system is proposed for mobile robots. For autonomous maneuvering of mobile robots, recognition of obstacles or recognition of road region is the essential task. In this paper, the 3D depth measurement system which is composed of a rotating mirror, a line laser and mono-camera is employed to detect depth, where the laser light is reflected by the mirror and projected to the scene objects whose locations are to be determined. The obtained depth information is converted into an image. Such depth images of the road region represent even and plane while that of off-road region is irregular or textured. Therefore, the problem falls into a texture identification problem. Road region is detected employing a simple spatial differentiation technique to detect the plain textured area. Identification results of the diverse situation of Nonlinear trail are included in this paper.

  • PDF

자율주행을 위한 동적 객체 인식 방법에 관한 연구 (A Study on the Motion Object Detection Method for Autonomous Driving)

  • 박승준;박상배;김정하
    • 한국산업융합학회 논문집
    • /
    • 제24권5호
    • /
    • pp.547-553
    • /
    • 2021
  • Dynamic object recognition is an important task for autonomous vehicles. Since dynamic objects exhibit a higher collision risk than static objects, our own trajectories should be planned to match the future state of moving elements in the scene. Time information such as optical flow can be used to recognize movement. Existing optical flow calculations are based only on camera sensors and are prone to misunderstanding in low light conditions. In this regard, to improve recognition performance in low-light environments, we applied a normalization filter and a correction function for Gamma Value to the input images. The low light quality improvement algorithm can be applied to confirm the more accurate detection of Object's Bounding Box for the vehicle. It was confirmed that there is an important in object recognition through image prepocessing and deep learning using YOLO.

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

인간의 공감각에 기반을 둔 색청변환을 이용한 영상 인식 (Image Recognition Using Colored-hear Transformation Based On Human Synesthesia)

  • 신성윤;문형윤;표성배
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권2호
    • /
    • pp.135-141
    • /
    • 2008
  • 본 논문에서는 공유 비전과 특수한 청각에 의해 감지되는 인간의 공감각 특징을 구별하는 색청 인식을 제안한다. 카메라를 통한 시각적인 분석이 인간의 구조화된 사물 인식에 영향을 주는 것이 가능하다는 점이다. 그래서 시각장애인들이 실제 사물과 유사한 비전을 느낄 수 있도록 하는 방법에 대해 연구해왔다. 우선 특정 장면을 대표하는 영상 데이터에서 객체의 경계가 추출된다. 다음으로, 이미지에서 객체의 위치, 색상 평균 감성, 각 객체의 거리 정보, 그리고 객체 영역의 범위와 같은 4가지 특징을 추출하고, 이들 특징들을 청각적 요소로 사상한다. 청각적 요소는 시각장애인을 위한 시각 인식 형태로 제공된다. 제안된 색청 변환 시스템은 보다 빠르고 세부적인 인지 정보를 제공하고 동시에 감각을 위한 정보를 제공한다. 따라서 이 개념을 시각장애인의 영상 인식에 적용할 경우보다 좋은 결과를 얻을 수 있다.

  • PDF

Vision-Based Activity Recognition Monitoring Based on Human-Object Interaction at Construction Sites

  • Chae, Yeon;Lee, Hoonyong;Ahn, Changbum R.;Jung, Minhyuk;Park, Moonseo
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.877-885
    • /
    • 2022
  • Vision-based activity recognition has been widely attempted at construction sites to estimate productivity and enhance workers' health and safety. Previous studies have focused on extracting an individual worker's postural information from sequential image frames for activity recognition. However, various trades of workers perform different tasks with similar postural patterns, which degrades the performance of activity recognition based on postural information. To this end, this research exploited a concept of human-object interaction, the interaction between a worker and their surrounding objects, considering the fact that trade workers interact with a specific object (e.g., working tools or construction materials) relevant to their trades. This research developed an approach to understand the context from sequential image frames based on four features: posture, object, spatial features, and temporal feature. Both posture and object features were used to analyze the interaction between the worker and the target object, and the other two features were used to detect movements from the entire region of image frames in both temporal and spatial domains. The developed approach used convolutional neural networks (CNN) for feature extractors and activity classifiers and long short-term memory (LSTM) was also used as an activity classifier. The developed approach provided an average accuracy of 85.96% for classifying 12 target construction tasks performed by two trades of workers, which was higher than two benchmark models. This experimental result indicated that integrating a concept of the human-object interaction offers great benefits in activity recognition when various trade workers coexist in a scene.

  • PDF

무인 자동차의 2차원 레이저 거리 센서를 이용한 도시 환경에서의 빠른 주변 환경 인식 방법 (Fast Scene Understanding in Urban Environments for an Autonomous Vehicle equipped with 2D Laser Scanners)

  • 안승욱;최윤근;정명진
    • 로봇학회논문지
    • /
    • 제7권2호
    • /
    • pp.92-100
    • /
    • 2012
  • A map of complex environment can be generated using a robot carrying sensors. However, representation of environments directly using the integration of sensor data tells only spatial existence. In order to execute high-level applications, robots need semantic knowledge of the environments. This research investigates the design of a system for recognizing objects in 3D point clouds of urban environments. The proposed system is decomposed into five steps: sequential LIDAR scan, point classification, ground detection and elimination, segmentation, and object classification. This method could classify the various objects in urban environment, such as cars, trees, buildings, posts, etc. The simple methods minimizing time-consuming process are developed to guarantee real-time performance and to perform data classification on-the-fly as data is being acquired. To evaluate performance of the proposed methods, computation time and recognition rate are analyzed. Experimental results demonstrate that the proposed algorithm has efficiency in fast understanding the semantic knowledge of a dynamic urban environment.