• 제목/요약/키워드: Multi-function Sensor

검색결과 141건 처리시간 0.026초

ICT 기반 스마트 멀티터치 영상 출력 시스템 (Smart Touch Screen Output System Based on ICT)

  • 박유진;최시웅;황승국
    • 한국지능시스템학회논문지
    • /
    • 제27권2호
    • /
    • pp.138-143
    • /
    • 2017
  • 본 연구에서는 ICT기반으로 한 스마트 터치 영상 출력 시스템의 구현을 목적으로 한다. 여기서의 영상 출력 시스템은 영상 감지 반응 센서를 통해 인식감지를 하여 움직임 패턴을 영상 화면과 실제 사용하는 해상도에 차이가 있으므로 이 오차를 최소화하기 위해서 화면 좌표인식 형태의 펜 터치 방식을 이용하는 스마트 영상 출력시스템을 말한다. 이를 위하여 ICT 기반의 기술을 응용하여 영상 데이터 출력을 기존의 유선 방식이 아닌 무선 방식과 스마트 터치 기능으로 PC 및 노트북, 모니터, 키보드, 마우스 없이도 원거리에서 조작이 가능한 스마트 영상 출력 시스템을 구축하였다. 본 연구결과는 스크린 없이도 벽면만 있으면 영상을 출력할 수 있고, 이 출력된 영상에서 펜으로 작동할 수 있다는 것이 특징이다.

Remote Multi-control Smart Farm with Deep Learning Growth Diagnosis Function

  • Kim, Mi-jin;Kim, Ji-ho;Lee, Dong-hyeon;Han, Jung-hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.49-57
    • /
    • 2022
  • 현재 우리 사회는 기후 문제와 세계 인구 증가로 인해 식량 부족 문제가 대두되고 있다. 이를 해결할 방안으로 인공지능(Artificial Intelligent, AI)와 정보통신기술(Information and Communication Technology, ICT)을 접목 시킨 다중 원격 제어 스마트팜을 제안한다. 제안하는 스마트팜은 ICT 기술을 접목시켜 공간과 시간에 제약 없이 원격으로 제어 및 관리하고 작물의 생육환경을 다중 제어한다. 아두이노를 활용하여 스마트폰 애플리케이션(Application, APP)을 통한 다중 제어가 가능한 스마트팜 시스템을 제안하였고, 딥러닝 기술을 적용하여 작물의 생장을 실시간으로 관찰하면서 다양한 데이터 확보 및 진단 기능을 가지는 AI기술을 포함하였다. 스마트팜 내의 각종 센서들을 제어하고 센서들의 데이터 값을 구축한 데이터베이스에 저장하여 사용자가 APP을 통하여 확인할 수 있도록 하였다. 사용자는 APP에서 현재 기상을 참고하여 제어할 수 있도록 하였고 캠을 통해 생육 환경을 실시간으로 확인할 수 있다. 다중 작물을 위한 다중 제어에는 2개 이상의 생육 환경에 대한 각각의 LED, COOLING FAN, WATER PUMP를 적용하여 사용자가 편리하게 제어할 수 있도록 구현하였다. 그리고 딥러닝 기술을 사용하여 TensorFlow 프레임워크를 통해 생육 단계를 진단해주는 APP을 구현하여 사용자가 현재 작물이 어느 단계의 생육 상태인지 손쉽게 진단할 수 있도록 도와주는 애플리케이션을 개발 하고 적용하였다.

KOMPSAT-3와 Landsat-8의 시계열 융합활용을 위한 교차검보정 (Radiometric Cross Calibration of KOMPSAT-3 and Lnadsat-8 for Time-Series Harmonization)

  • 안호용;나상일;박찬원;홍석영;소규호;이경도
    • 대한원격탐사학회지
    • /
    • 제36권6_2호
    • /
    • pp.1523-1535
    • /
    • 2020
  • 원격탐사를 이용한 작황정보 생산은 작물의 생물계절을 이용하여 작물 분류, 생육 모니터링, 생산량 추정 분석이 선행되어야 한다. 생물계절에 추정을 위한 시계열 영상 자료가 필요하지만 KOMPSAT(Korea Multi-Purpose Satellite)만으로 획득하는 것은 물리적 제한이 있으므로 타 지구관측위성과의 융합 활용이 필요하다. 위성자료의 융합 활용을 위해서는 각 위성이 가지는 고유의 방사학적 센서 특성 차이를 극복해야 한다. 본 연구는 위성자료의 융·복합 활용을 위한 첫 단계로서 KOMPSAT-3와 Landsat-8 위성의 교차검보정을 수행하였다. Libya-4 PICS(Pseudo Invariant Calibration Sites)에서 2년간 수집된 위성자료에 대해 초분광위성을 이용하여 산정된 SBAF(Spectral Band Adjustment Factor)를 적용하여 대기상단 반사도를 비교하였다. 교차검보정 결과 KOMPSAT-3와 Landsat-8 위성은 Blue, Green, Red 밴드에서 약 4%, NIR밴드에서 6%의 반사율 차이를 보였다. 온보드 켈리브레이터가 없는 KOMPSAT-3는 Ladnsat-8에 비해 Radiometric Stability가 낮은 것으로 나타났다. 향후 교차검보정의 정확도를 높이기 위해 BRDF(Bidirectional reflectance distribution function) 보정 및 지형보정을 통하여 정규화 된 반사율 자료를 생산하기 위한 노력이 필요하다.

Early Detection of Intravenous Infiltration Using Multi-frequency Bioelectrical Impedance Parameters: Pilot Study

  • Kim, Jae-Hyung;Shin, Beum-Joo;Baik, Seung-Wan;Jeon, Gye-Rok
    • 센서학회지
    • /
    • 제26권1호
    • /
    • pp.15-23
    • /
    • 2017
  • In this study, bioelectrical impedance analysis, which has been used to assess an alteration in intracellular fluid (ICF) of the body, was applied to detect intravenous infiltration. The experimental results are described as follows. Firstly, when infiltration occurred, the resistance gradually decreased with time and frequency i.e., the resistance decreased with increasing time, proportional to the amount of infiltrated intravenous (IV) solution. At each frequency, the resistance gradually decreased with time, indicating the IV solution (also blood) accumulated in the extracellular fluid (ECF) (including interstitial fluid). Secondly, the resistance ratio started to increase at infiltration, showing the highest value after 1.4 min of infiltration, and gradually decreased thereafter. Thirdly, the impedance ($Z_C$) of cell membrane decreased significantly (especially at 50 kHz) during infiltration and gradually decreased thereafter. Fourthly, Cole-Cole plot indicated that the positions of (R, $X_C$) shifted toward left owing to infiltration, reflecting the IV solution accumulated in the ECF. The resistance ($R_0$) at zero frequency decreased continuously over time, indicating that it is a vital impedance parameter capable of detecting early infiltration during IV infusion. Finally, the mechanism of the current flowing through the ECF, cell membrane, and ICF in the subcutaneous tissues was analyzed as a function of time before and after infiltration, using an equivalent circuit model of the human cell. In conclusion, it was confirmed that the infiltration could be detected early using these impedance parameters during the infusion of IV solution.

3차원 위치측정을 위한 스테레오 카메라 시스템의 인공 신경망을 이용한 보정 (Calibrating Stereoscopic 3D Position Measurement Systems Using Artificial Neural Nets)

  • 도용태;이대식;유석환
    • 센서학회지
    • /
    • 제7권6호
    • /
    • pp.418-425
    • /
    • 1998
  • 로봇을 비롯한 자동화 기계의 3차원 작업에서 스테레오 카메라는 가장 널리 사용되는 센서 장치이다. 스테레오 카메라를 사용함으로써 3차원 실세계 공간내 임의 목표점의 위치를 측정할 수 있으며, 카메라의 보정은 이를 위한 중요한 선행작업이다. 기존의 카메라 보정법은 크게 선형과 비선형의 기법으로 나눌 수 있는데, 선형의 기법은 간단하나 정확도의 면에서 문제점을 지니고, 비선형 기법은 렌즈의 왜곡을 보상하기 위한 모델링 과정과 이의 비선형 해를 구하는 비교적 복잡한 과정을 필요로 한다는 문제가 있다. 본 논문에서는 이러한 문제의 한 해결방안으로 인공신경망을 적용하는 방법을 연구하고 그 결과를 제시한다. 특히 역전파 알고리즘에 의해 학습된 다층 신경망의 함수 근사화 능력을 활용하여 선형기법의 오차 패턴을 학습함으로써 간단하고 효과적으로 계측의 정확도를 향상시킬 수 있음을 실험을 통하여 보인다.

  • PDF

A STUDY ON THE GENERATION OF EO STANDARD IMAGE PRODUCTS: SPOT

  • JUNG HYUNG-SUP;KANG MYUNG-HO;LEE YONG-WOONG;LEE HO-NAM;WON JOONG-SUN
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2004년도 Proceedings of ISRS 2004
    • /
    • pp.216-219
    • /
    • 2004
  • In this study, the concept and techniques to generate the level lA, lB and 2A image products have been reviewed. In particular, radiometric and geometric corrections and bands registration used to generate level lA, lB and 2A products have been focused in this study. Radiometric correction is performed to take into account radiometric gain and offset calculated by compensating the detector response non-uniformity. And, in order to compensate satellite altitude, attitude, skew effects, earth rotation and earth curvature, some geometric parameters for geometric corrections are computed and applied. Bands registration process using the matching function between a geometry, which is called 'reference geometry', and another one which is corresponds to the image to be registered is applied to images in case of multi-spectral imaging mode. In order to generate level-lA image products, a simple radiometric processing is applied to a level-0 image. Level-lB image has the same radiometry correction as a level-lA image, but is also issued from some geometric corrections in order to compensate skew effects, Earth rotation effects and spectral misregistration. Level-2A image is generated using some geo-referencing parameters computed by ephemeris data, orbit attitudes and sensor angles. Level lA image is tested by visual analysis. The difference between distances calculated level 1 B image and distances of real coordinate is tested. Level 2A image is tested Using checking points.

  • PDF

최적 EN를 사용한 MNN에 의한 Mobile Robot제어 (Mobile robot control by MNN using optimal EN)

  • 최우경;김성주;서재용;전홍태
    • 한국지능시스템학회논문지
    • /
    • 제13권2호
    • /
    • pp.186-191
    • /
    • 2003
  • 이동로봇(Mobile Robot)의 자율주행 기능에는 추종, 접근, 충돌회피, 경고 등의 여러 기능이 있다. 이 기능들을 하나의 Neural Network로 구성하고 학습하는 것은 쉬운 일이 아니다. 이동로봇의 자율주행 기능들을 각각의 Module로 구성하고 상황에 맞게 학습된 Module의 출력 값으로 이동로봇을 제어하면 단일 신경망의 단점을 보안할 수 있을 것이다. 이동로봇은 인간의 감각을 대신할 수 있는 다중 초음파 센서와 USB 카메라를 장착하고 있으며, 이곳에서 측정된 환경정보 데이터들은 Modular Neural Network(MNN)을 통해 학습을 한다. Expert Network(EN)의 활성화 함수를 최적결합으로 MNN을 구성하였고, 그 구조는 학습시간과 오차를 개선할 수 있을 것으로 본다. Gating Network(GN)는 MNN의 출력값인 이동로봇의 진행 방향과 속도를 스위칭 함으로써 제어하는 역할을 한다. 본 논문에서는 Modular Neural Network(MNN) 내의 Expert Network(EN)을 최적설계 하였고, 제안한 MNN의 검증을 위해 실시간으로 반복하여 이동로봇에 구현하였다. 그 실험의 결과값은 로봇을 상황에 맞게 운행, 제어하였고, 만족할 만한 성과를 얻을 수 있었다.

A CPU-GPU Hybrid System of Environment Perception and 3D Terrain Reconstruction for Unmanned Ground Vehicle

  • Song, Wei;Zou, Shuanghui;Tian, Yifei;Sun, Su;Fong, Simon;Cho, Kyungeun;Qiu, Lvyang
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1445-1456
    • /
    • 2018
  • Environment perception and three-dimensional (3D) reconstruction tasks are used to provide unmanned ground vehicle (UGV) with driving awareness interfaces. The speed of obstacle segmentation and surrounding terrain reconstruction crucially influences decision making in UGVs. To increase the processing speed of environment information analysis, we develop a CPU-GPU hybrid system of automatic environment perception and 3D terrain reconstruction based on the integration of multiple sensors. The system consists of three functional modules, namely, multi-sensor data collection and pre-processing, environment perception, and 3D reconstruction. To integrate individual datasets collected from different sensors, the pre-processing function registers the sensed LiDAR (light detection and ranging) point clouds, video sequences, and motion information into a global terrain model after filtering redundant and noise data according to the redundancy removal principle. In the environment perception module, the registered discrete points are clustered into ground surface and individual objects by using a ground segmentation method and a connected component labeling algorithm. The estimated ground surface and non-ground objects indicate the terrain to be traversed and obstacles in the environment, thus creating driving awareness. The 3D reconstruction module calibrates the projection matrix between the mounted LiDAR and cameras to map the local point clouds onto the captured video images. Texture meshes and color particle models are used to reconstruct the ground surface and objects of the 3D terrain model, respectively. To accelerate the proposed system, we apply the GPU parallel computation method to implement the applied computer graphics and image processing algorithms in parallel.

Camera Vision 기반 주행안전 시스템 구현에 관한 연구 (The research of implementing safety driving system based on camera vision system)

  • 박화범;김영길
    • 한국정보통신학회논문지
    • /
    • 제23권9호
    • /
    • pp.1088-1095
    • /
    • 2019
  • 최근 발전되고 있는 정보통신 IT 기술은 자동차 시장에도 큰 영향을 미치며 발전하고 있다. 근래에는 운전자의 안전성과 편의성을 위해 IT 기술이 접목된 장치들이 장착되고 있다. 하지만 편의성이 증가된 장점과 함께 운전자의 주의 분산으로 인해 교통사고를 증가시키는 단점도 가져오게 되었다. 이러한 사고를 미연에 방지하기 위해 여러 방식과 종류의 안전시스템 개발이 필요하다. 본 논문에서는 두 개 이상의 센서를 이용한 레이더센서 와 카메라 융합 방식 및 Stereo Camera 방식을 이용하지 않고 하나의 단일 Camera를 이용하여 주/야간 차선이탈 경보 및 장애물 및 보행자 인식이 가능한 플랫폼을 구현 하고 차량에서 인식률 평가 및 유효성을 분석 하여 단일 카메라를 이용한 다기능 주행안전 플랫폼 연구를 제안 한다.

CNN based data anomaly detection using multi-channel imagery for structural health monitoring

  • Shajihan, Shaik Althaf V.;Wang, Shuo;Zhai, Guanghao;Spencer, Billie F. Jr.
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.181-193
    • /
    • 2022
  • Data-driven structural health monitoring (SHM) of civil infrastructure can be used to continuously assess the state of a structure, allowing preemptive safety measures to be carried out. Long-term monitoring of large-scale civil infrastructure often involves data-collection using a network of numerous sensors of various types. Malfunctioning sensors in the network are common, which can disrupt the condition assessment and even lead to false-negative indications of damage. The overwhelming size of the data collected renders manual approaches to ensure data quality intractable. The task of detecting and classifying an anomaly in the raw data is non-trivial. We propose an approach to automate this task, improving upon the previously developed technique of image-based pre-processing on one-dimensional (1D) data by enriching the features of the neural network input data with multiple channels. In particular, feature engineering is employed to convert the measured time histories into a 3-channel image comprised of (i) the time history, (ii) the spectrogram, and (iii) the probability density function representation of the signal. To demonstrate this approach, a CNN model is designed and trained on a dataset consisting of acceleration records of sensors installed on a long-span bridge, with the goal of fault detection and classification. The effect of imbalance in anomaly patterns observed is studied to better account for unseen test cases. The proposed framework achieves high overall accuracy and recall even when tested on an unseen dataset that is much larger than the samples used for training, offering a viable solution for implementation on full-scale structures where limited labeled-training data is available.