• 제목/요약/키워드: visual sensor networks

검색결과 25건 처리시간 0.035초

비디오 센서 망에서의 감시 체계를 위한 저지연/적응형 영상전송 기술 연구 (Study on Low Delay and Adaptive Video Transmission for a Surveillance System in Visual Sensor Networks)

  • 이인웅;김학섭;오태근;이상훈
    • 한국통신학회논문지
    • /
    • 제39C권5호
    • /
    • pp.435-446
    • /
    • 2014
  • 비디오 센서 망을 이용한 무인 감시 체계에서는 고용량의 영상 정보를 왜곡 없이 전송하는 것이 중요하다. 하지만, 무선 채널의 특성상 왜곡 발생이 최소화 되도록 처리할 경우, 불필요한 전송 신호의 추가 또는 정보의 재전송 등으로 인해, 전송 자체의 지연을 초래하는 효과로 연결된다. 따라서 비디오 센서 망 기반의 감시 체계는 무인 체계와 운용자 사이 또는 무인체계들 사이에 고용량의 영상 정보를 압축하면서, 실시간 정보의 특성에 알맞도록 지연시간을 줄이고 시시각각 변화하는 감시 체계에 적합하게 전송할 수 있는 저지연/적응형 영상 전송 기술을 설계하는 것이 중요하다. 본 고에서는, 무인체계의 전체 시스템 프로토콜을 상기의 목표에 맞게 설계하고, 다양한 무선 환경에서 실현할 수 있는 영상전송 기술을 소개 한다. 원활한 무인체계 통신단말 운용을 위해 대용량의 다채널 영상 정보를 효율적이면서 지연이 적게 압축하고, 통신 상태 변화에 따라 유연하게 크로스 레이어 관점에서 영상의 정보를 계층적 부호화 (Layered Coding)를 기반으로 우선 순위에 기반하여 저지연 및 적응적으로 전송하는 기술을 소개한다.

컬러 시각을 이용한 사람 손의 검출 (Human Hand Detection Using Color Vision)

  • 김준엽;도용태
    • 센서학회지
    • /
    • 제21권1호
    • /
    • pp.28-33
    • /
    • 2012
  • The visual sensing of human hands plays an important part in many man-machine interaction/interface systems. Most existing visionbased hand detection techniques depend on the color cues of human skin. The RGB color image from a vision sensor is often transformed to another color space as a preprocessing of hand detection because the color space transformation is assumed to increase the detection accuracy. However, the actual effect of color space transformation has not been well investigated in literature. This paper discusses a comparative evaluation of the pixel classification performance of hand skin detection in four widely used color spaces; RGB, YIQ, HSV, and normalized rgb. The experimental results indicate that using the normalized red-green color values is the most reliable under different backgrounds, lighting conditions, individuals, and hand postures. The nonlinear classification of pixel colors by the use of a multilayer neural network is also proposed to improve the detection accuracy.

Initial development of wireless acoustic emission sensor Motes for civil infrastructure state monitoring

  • Grosse, Christian U.;Glaser, Steven D.;Kruger, Markus
    • Smart Structures and Systems
    • /
    • 제6권3호
    • /
    • pp.197-209
    • /
    • 2010
  • The structural state of a bridge is currently examined by visual inspection or by wired sensor techniques, which are relatively expensive, vulnerable to inclement conditions, and time consuming to undertake. In contrast, wireless sensor networks are easy to deploy and flexible in application so that the network can adjust to the individual structure. Different sensing techniques have been used with such networks, but the acoustic emission technique has rarely been utilized. With the use of acoustic emission (AE) techniques it is possible to detect internal structural damage, from cracks propagating during the routine use of a structure, e.g. breakage of prestressing wires. To date, AE data analysis techniques are not appropriate for the requirements of a wireless network due to the very exact time synchronization needed between multiple sensors, and power consumption issues. To unleash the power of the acoustic emission technique on large, extended structures, recording and local analysis techniques need better algorithms to handle and reduce the immense amount of data generated. Preliminary results from utilizing a new concept called Acoustic Emission Array Processing to locally reduce data to information are presented. Results show that the azimuthal location of a seismic source can be successfully identified, using an array of six to eight poor-quality AE sensors arranged in a circular array approximately 200 mm in diameter. AE beamforming only requires very fine time synchronization of the sensors within a single array, relative timing between sensors of $1{\mu}s$ can easily be performed by a single Mote servicing the array. The method concentrates the essence of six to eight extended waveforms into a single value to be sent through the wireless network, resulting in power savings by avoiding extended radio transmission.

Full-scale bridge expansion joint monitoring using a real-time wireless network

  • Pierredens Fils;Shinae Jang;Daisy Ren;Jiachen Wang;Song Han;Ramesh Malla
    • Structural Monitoring and Maintenance
    • /
    • 제9권4호
    • /
    • pp.359-371
    • /
    • 2022
  • Bridges are critical to the civil engineering infrastructure network as they facilitate movement of people, the transportation of goods and services. Given the aging of bridge infrastructure, federal officials mandate visual inspections biennially to identify necessary repair actions which are time, cost, and labor-intensive. Additionally, the expansion joints of bridges are rarely monitored due to cost. However, expansion joints are critical as they absorb movement from thermal effects, loadings strains, impact, abutment settlement, and vehicle motion movement. Thus, the need to monitor bridge expansion joints efficiently, at a low cost, and wirelessly is desired. This paper addresses bridge joint monitoring needs to develop a cost-effective, real-time wireless system that can be validated in a full-scale bridge structure. To this end, a wireless expansion joint monitoring was developed using commercial-off-the-shelf (COTS) sensors. An in-service bridge was selected as a testbed to validate the performance of the developed system compared with traditional displacement sensor, LVDT, temperature and humidity sensors. The short-term monitoring campaign with the wireless sensor system with the internet protocol version 6 over the time slotted channel hopping mode of IEEE 802.15.4e (6TiSCH) network showed reliable results, providing high potential of the developed system for effective joint monitoring at a low cost.

컨볼루션 뉴럴 네트워크와 키포인트 매칭을 이용한 짧은 베이스라인 스테레오 카메라의 거리 센싱 능력 향상 (Improving Detection Range for Short Baseline Stereo Cameras Using Convolutional Neural Networks and Keypoint Matching)

  • 박병재
    • 센서학회지
    • /
    • 제33권2호
    • /
    • pp.98-104
    • /
    • 2024
  • This study proposes a method to overcome the limited detection range of short-baseline stereo cameras (SBSCs). The proposed method includes two steps: (1) predicting an unscaled initial depth using monocular depth estimation (MDE) and (2) adjusting the unscaled initial depth by a scale factor. The scale factor is computed by triangulating the sparse visual keypoints extracted from the left and right images of the SBSC. The proposed method allows the use of any pre-trained MDE model without the need for additional training or data collection, making it efficient even when considering the computational constraints of small platforms. Using an open dataset, the performance of the proposed method was demonstrated by comparing it with other conventional stereo-based depth estimation methods.

시각 장애인을 위한 영상 기반 심층 합성곱 신경망을 이용한 화재 감지기 (Fire Detection using Deep Convolutional Neural Networks for Assisting People with Visual Impairments in an Emergency Situation)

  • 보라시 콩;원인수;권장우
    • 재활복지
    • /
    • 제21권3호
    • /
    • pp.129-146
    • /
    • 2017
  • 본 연구는 실내에서 화재 발생시 시각 장애인들을 지원하기 위한 영상 기반의 화재감지기를 제안한다. 건물 내에 화재가 발생하는 비상 상황 발생시 시각 장애인은 일반인보다 상황을 인지하는 것이 늦기 때문에 위험한 상황에 노출되기 쉽다. 기존의 연기 감지기와 같은 현재의 화재 감지 방법은 화재 발생시 발생하는 화학 센서 기반 기술을 사용함으로써 감지가 상대적으로 늦으며 화재가 확산된 후에 감지가 되는 등 낮은 신뢰성이 문제가 될 수 있다. 이를 보완하기 위해 영상 기반의 화재 감지 기술이 개발되었지만 낮은 정확도가 문제가 되어 실용화되지 못하였다. 최근 인공 지능을 위한 심층 학습 분야의 큰 발전으로 영상 내의 물체 인식률이 높아짐에 따라 관련 연구가 활발히 진행되고 있다. 따라서 본 연구에서는 보안 카메라 영상을 사용하여 화재를 감지할 수 있는 심층 학습 기반의 화재 감지기를 제안한다. 심층 학습 기반의 접근법은 영상에서 자동으로 특징을 학습할 수 있으므로 일반적으로 복잡한 상황에 대해서도 일반화가 가능하다. 본 논문에서는 화재감지 정확도와 속도 측면의 균형을 고려하여 두 개의 심층 합성곱 신경망 모델을 제안하였다. 실험을 통해 두 모델 모두 99%의 평균 정밀도로 화재를 감지할 수 있으며 첫 번째 모델은 초당 30장의 처리 속도와 76%의 정확도를 나타냈다. 두번째 모델은 초당 50장의 처리 속도와 61%의 정확도를 나타낸다. 또한 두 개의 모델의 메모리 사용량을 서로 비교하였으며 다양한 실제 화재 시나리오에서 테스트하여 신뢰할 수 있는 모델임을 증명하였다. 본 논문에 제안한 영상 기반 화재 감지기가 상용화된다면 상대적으로 실내 화재에 취약한 시각 장애인들의 안전에 도움이 될 것이다.

도시기상 관측을 위한 메타데이터의 표준화 (Standardization of Metadata for Urban Meteorological Observations)

  • 송윤영;채정훈;최민혁;박문수;최영진
    • 한국대기환경학회지
    • /
    • 제30권6호
    • /
    • pp.600-618
    • /
    • 2014
  • The metadata for urban meteorological observation is standardized through comparison with those established at the World Meteorological Organization and the Korea Meteorological Administration to understand the surrounding environment around the sites exactly and maintain the networks and sites efficiently. It categorizes into metadata for an observational network and observational sites. The latter is again divided into the metadata for station general information, local scale information, micro scale information, and visual information in order to explain urban environment in detail. The metadata also contains the static information such as urban structure, surface cover, metabolism, communication, building density, roof type, moisture/heat sources, and traffic as well as the update information on the environment change, maintenance, replacement, and/or calibration of sensors. The standardized metadata for urban meteorological observation is applied to the Weather Information Service Engine (WISE) integrated meteorological sensor network and sites installed at Incheon area. It will be very useful for site manager as well as researchers in fields of urban meteorology, radiation, surface energy balance, anthropogenic heat, turbulence, heat storage, and boundary layer processes.

실시간 위치기반 예약시스템 구축을 위한 이동통신망과 스마트폰 최적 활용에 관한 연구 (A Study on the Mobile Communication Network and Practical use of Smart Phone for Building of Realtime Location Based Reservation System)

  • 강신관;이정배
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권1호
    • /
    • pp.283-294
    • /
    • 2012
  • 최근 스마트폰의 활성화로 이동통신망과 스마트폰을 활용한 IT 기술과 타 산 업간의 융합 산업의 응용 범위가 더욱 확장되고 있다. 더욱이 R&D 기술들을 다른 분야의 기술개발과 효과적으로 스마트폰과 접목시켜 생활편의를 제공하는 시도가 이루어지고 있다. 그렇지만, 비엔날레, 영화제 및 엑스포와 같은 대형 행사를 위해 많은 인원이 특정지역에 밀집되는 경우, 이를 통제하기란 매우 어렵고 이에 대한 효율적인 대책 또한 미흡한 실정이다. 이와 같은 문제를 해결하기 위하여 본 논문에서는 스마트폰에서의 증강현실, 이동통신망을 이용한 네트워크 기반의 티켓예약 시스템과 이의 구성에 대하여 기술하고자한다. 특히, 앱 설계기술을 이용하여 실제 스마트폰-앱 응용기술에 앞서, 사전에 프로토타이핑 시스템을 설계 및 개발하는 방법을 제안하고자 한다.

하천 감시를 위한 하천 영상의 색상 분석 및 이진화 방법 (Color Analysis and Binarization of River Image for River Surveillance)

  • 박상현
    • 한국전자통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.175-186
    • /
    • 2018
  • 지구 온난화로 인해 홍수나 집중 호우와 같은 자연 재해들이 증가하고 있다. 이러한 자연 재해들이 미리 그리고 효과적으로 인지될 수 있다면 재해로 인한 많은 피해들을 미리 막을 수 있을 것이다. 최근 비쥬얼 센서 기술의 발전을 바탕으로 재해를 예방하기 위해 하천을 포함한 다양한 자연환경을 감시하는데 비쥬얼 센서 기술을 적용하는 연구들이 많이 진행되고 있다. 이 논문에서는 비쥬얼 센서 네트워크 기술을 이용한 하천 감시 시스템에 적용 가능한 강물 영상에서 강물 영역을 분할하는 방법을 제안한다. 제안하는 방법에서는 먼저 강물 영역과 배경 영역의 색상에 대한 분석을 하고 그 결과를 바탕으로 영상 분할에 가장 효과적인 색상 채널을 선택하고 이진화를 통해 강물영역을 검출한다. 실험 결과는 제안하는 방법이 간단하면서도 정확하게 강물 영상에서 강물 영역을 분리하는 것을 보여준다.

Environment Adaptive Emergency Evacuation Route GUIDE through Digital Signage Systems

  • Lee, Dongwoo;Kim, Daehyun;Lee, Junghoon;Lee, Seungyoun;Hwang, Hyunsuk;Mariappan, Vinayagam;Lee, Minwoo;Cha, Jaesang
    • International Journal of Advanced Culture Technology
    • /
    • 제5권1호
    • /
    • pp.90-97
    • /
    • 2017
  • Nowadays, the most of commercial buildings are build-out with complex architecture and decorated with more complicated interiors of buildings so establishing intelligible escape routes becomes an important case of fire or other emergency in a limited time. The commercial buildings are already equipped with multiple exit signs and these exit signs may create confusion and leads the people into different directions under emergency. This can jeopardize the emergency situation into a chaotic state, especially in a complex layout buildings. There are many research focused on implementing different approached to improve the exit sign system with better visual navigating effects, such as the use of laser beams, the combination of audio and video cues, etc. However the digital signage system based emergency exit sign management is one of the best solution to guide people under emergency situations to escape. This research paper, propose an intelligent evacuation route GUIDE that uses the combination centralized Wireless Sensor Networks (WSN) and digital signage for people safety and avoids dangers from emergency conditions. This proposed system applies WSN to detect the environment condition in the building and uses an evacuation algorithm to estimate the safe route to escape using the sensor information and then activates the signage system to display the safe evacuation route instruction GUIDE according to the location the signage system is installed. This paper presented the prototype of the proposed signage system and execution time to find the route with future research directions. The proposed system provides a natural intelligent evacuation route interface for self or remote operation in facility management to efficiently GUIDE people to the safe exit under emergency conditions.