• 제목/요약/키워드: Fusion matching

검색결과 140건 처리시간 0.025초

시계열기반의 GPS 프로브 자료의 이상치 제거 알고리즘 개발 (A Time Series-based Algorithm for Eliminating Outliers of GPS Probe Data)

  • 최기주;장정아
    • 대한교통학회지
    • /
    • 제22권6호
    • /
    • pp.67-77
    • /
    • 2004
  • 본 연구는 구간검지체계의 GPS 프로브 원시데이터의 1차 기공을 위한 평균화과정에 있어 발생할 수 있는 문제점으로 이상치 문제에 대해 검토하고 있다. 이상치의 미 제거는 구간검지의 수집 및 가공 신뢰도를 저하시킬 수 있으므로 이상치에 대한 부문을 수집 주기별로 판단하여 제거해 주어야 한다. 연구에서는 이상치 제거 알고리즘으로 ARIMA 모형을 적용시켜 실시간적 신뢰구간 추정과정들을 검토해 보았다. 이러한 ARIMA 모형의 적용하기 위해 서울시 10개의 도로구간의 GPS 프로브 기반의 교통데이터에 대하여 모수 추정 기간 등을 변화시키면서 이상치 제거 개수들을 확인하였다. 모든 링크는 IMA(1,1)모형으로 모형이 식별이 되었으며, 모수 추정의 경우 추정기간이 짧아질수록 이상치 제거율이 낮아지는 즉 교통흐름에 보다 민감한 경향을 보이는 결과를 가져왔다. 이상치로 제거된 각 개별 원시 데이터의 확인이 불가하여 모형의 신뢰도 평가는 불가하여 모형의 우수성은 입증되지 못 하였으나 본 연구의 결과 수집 데이터 측면에서의이상치 제거의 모형으로서 시계열 모형이 적절하게 이용 가능할 것으로 판단된다.

실감형 화상 회의를 위해 깊이정보 혼합을 사용한 시선 맞춤 시스템 (Eye Contact System Using Depth Fusion for Immersive Videoconferencing)

  • 장우석;이미숙;호요성
    • 전자공학회논문지
    • /
    • 제52권7호
    • /
    • pp.93-99
    • /
    • 2015
  • 본 논문에서는 실감형 원격 영상회의를 위한 시스템을 제안한다. 원격 영상회의에서 카메라는 보통 디스플레이의 중앙이 아닌 측면에 설치가 된다. 이는 시선 불일치를 만들고, 사용자들의 몰입도를 떨어뜨린다. 따라서 실감형 영상회의에 있어서 시선 맞춤은 중요한 부분을 차지한다. 제안하는 방법은 스테레오 카메라와 깊이 카메라를 사용하여 시선 맞춤을 시도한다. 깊이 카메라는 비교적 적은 비용으로 효율적으로 깊이 정보를 생성할 수 있는 키넥트 카메라를 선택하였다. 하지만 키넥트 카메라는 비용적인 장점에도 불구하고 단독으로 사용하기에는 내제하는 단점이 많다. 따라서 스테레오 카메라를 더하여 각 깊이 센서 간의 단점을 보완하는 방법을 개발하였고, 이는 각 깊이 정보 간의 혼합 및 정제 과정을 통해서 실현된다. 시선 맞춤 영상 생성은 후처리를 통한 보완된 깊이 정보를 이용하여 3차원 워핑 기술을 이용하여 구현된다. 실험결과를 보면 제안한 시스템이 자연스러운 시선 맞춤 영상을 제공하는 것을 알 수 있다.

무선통신을 이용한 원격제어 기술 구현 (A Study on Implementation of Remote Control System using Wireless Technologies)

  • 장동원;조인귀
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 추계학술대회
    • /
    • pp.307-309
    • /
    • 2016
  • 본고에서는 WiFi, ZigBee, 블루투스 등 무선 통신 기술을 이용해서 로봇, 헬스케어, 스마트그리드, 자율자동차 분야 등에서 무선에 의한 센싱 및 전력 전송을 제어하는 시스템에 대해서 기술하였다. 최근에 사물인터넷 (Interne of Things) 및 사물통신(Machine to Machine)을 이용한 다양한 응용이 많은 분야에서 제기되고 있으며 이를 위해서는 제어, 컴퓨팅, 네트워킹 기술이 융합된 기술을 요구한다. 기존의 제어 중심이었던 임베디드 시스템에 유무선 통신망을 이용한 컴퓨팅 기술이 융합된 가상물리 시스템(Cyber Physical System)이 미국 및 유럽에서 향후 국가 주도 기술로 채택되어 연 산 학이 협력하여 추진 중이다. 본고에서는 이러한 기술 개념에 일치하는 무선을 이용한 센싱에 의해 무선으로 전력을 전송하는 시스템을 제어하는 기술을 구현하고 기술하였다.

  • PDF

스트리트뷰 영상의 객체탐지를 활용한 보행 장애물 정보 갱신 (Updating Obstacle Information Using Object Detection in Street-View Images)

  • 박슬아;송아람
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.599-607
    • /
    • 2021
  • 스트리트뷰(Street-view) 영상은 도로의 특정 위치를 중심으로 한 전방위 영상을 제공하며, 보행 환경에 대한 다양한 장애물 정보를 포함한다. 보행자용 길안내 서비스에 활용하기 위한 보행 네트워크(Pedestrian network) 데이터는 교통약자를 비롯한 보행자의 이동 편의성을 보장하기 위하여 보행 장애물에 대한 최신 정보를 반영해야 한다. 본 연구에서는 스트리트뷰 영상과 딥러닝 기반의 객체탐지 알고리즘을 활용하여 서울 전역에 위치한 주요 보행 장애물인 볼라드(Bollard)를 학습하였다. 또한, 탐지된 볼라드 정보와 보행 네트워크 간의 공간매칭을 통해 횡단보도 노드를 대상으로 볼라드의 유무와 개수 정보를 장애물 속성으로 입력하고, 동시에 누락된 횡단보도 정보를 갱신하기 위한 프로세스를 정의하였다. 스트리트뷰 영상으로 학습된 모델은 보행 상황에서 스마트폰으로 촬영한 사진에 대해서도 적용이 가능하며, 향후 스트리트뷰 영상에 포함된 다양한 보행 장애물에 대한 추가 학습을 통해 효율적인 보행 장애 정보 갱신이 가능할 것으로 기대된다.

Question Similarity Measurement of Chinese Crop Diseases and Insect Pests Based on Mixed Information Extraction

  • Zhou, Han;Guo, Xuchao;Liu, Chengqi;Tang, Zhan;Lu, Shuhan;Li, Lin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권11호
    • /
    • pp.3991-4010
    • /
    • 2021
  • The Question Similarity Measurement of Chinese Crop Diseases and Insect Pests (QSM-CCD&IP) aims to judge the user's tendency to ask questions regarding input problems. The measurement is the basis of the Agricultural Knowledge Question and Answering (Q & A) system, information retrieval, and other tasks. However, the corpus and measurement methods available in this field have some deficiencies. In addition, error propagation may occur when the word boundary features and local context information are ignored when the general method embeds sentences. Hence, these factors make the task challenging. To solve the above problems and tackle the Question Similarity Measurement task in this work, a corpus on Chinese crop diseases and insect pests(CCDIP), which contains 13 categories, was established. Then, taking the CCDIP as the research object, this study proposes a Chinese agricultural text similarity matching model, namely, the AgrCQS. This model is based on mixed information extraction. Specifically, the hybrid embedding layer can enrich character information and improve the recognition ability of the model on the word boundary. The multi-scale local information can be extracted by multi-core convolutional neural network based on multi-weight (MM-CNN). The self-attention mechanism can enhance the fusion ability of the model on global information. In this research, the performance of the AgrCQS on the CCDIP is verified, and three benchmark datasets, namely, AFQMC, LCQMC, and BQ, are used. The accuracy rates are 93.92%, 74.42%, 86.35%, and 83.05%, respectively, which are higher than that of baseline systems without using any external knowledge. Additionally, the proposed method module can be extracted separately and applied to other models, thus providing reference for related research.

수렴각에 따른 KOMPSAT-3·3A호 영상 간 정밀 상호좌표등록 결과 분석 (Fine Co-registration Performance of KOMPSAT-3·3A Imagery According to Convergence Angles)

  • 한유경;김태헌;김예지;이정호
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.491-498
    • /
    • 2019
  • 본 연구는 KOMPSAT-3 및 3A호 영상 간 상호좌표등록을 수행할 당시에 두 영상이 보이는 수렴각(convergence angle)의 크기에 따라서 상호좌표등록의 정확도가 어떻게 달라지는지에 대한 분석을 수행하였다. 고해상도 위성영상의 메타데이터에서 제공하는 영상의 좌표정보를 이용하여 영상 정합을 수행하기 위한 탐색영역을 줄일 수 있으므로, 본 연구에서는 좁은 탐색영역에서 정합 신뢰도가 높은 영역기반 정합쌍 추출 기법 중 하나인 상호정보(mutual information) 기법을 활용하였다. 상대적으로 해상도가 낮은 다중분광 영상을 이용하여 초기 상호좌표등록을 수행하여 초기 위치관계를 파악하고, 보다 정밀한 상호좌표등록을 위해 전정색 영상의 관심대상지역을 중심으로 정밀 상호좌표등록을 수행하였다. 대전지역에서 촬영된 16장의 KOMPSAT-3 및 3A호 영상으로 120개의 조합을 구성하여 실험을 수행하였다. 실험결과, 영상 간 수렴각 크기와 상호좌표등록 정확도 사이의 상관계수 값은 0.59를 보였고, 영상 간의 수렴각 크기가 클수록 상호좌표등록 정확도가 떨어지는 경향을 보이는 것을 확인하였다.

SAR 영상 정합 정확도 평가를 위한 FSIM 인자 활용 가능성 (Feasibility Study on FSIM Index to Evaluate SAR Image Co-registration Accuracy)

  • 김상완;이동준
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.847-859
    • /
    • 2021
  • 최근 고해상도 위성 SAR 영상이 늘어남에 따라, 변화탐지, 영상 융합 등 다양한 분야에서 SAR 영상에 대한 정밀 정합 요구가 커지고 있다. 영상 정합 결과에 대한 정량적 평가는 분석자에 의해 추출된 GCPs (Ground Control Points)를 이용한 RMSE (Root Mean Square Error) 값이 널리 사용되어 왔으나, 영상정합 결과의 정확도를 자동으로 측정하는 방법에 대한 연구는 미비한 실정이다. 본 연구에서는 SAR 영상 정합의 정확도 평가지표로, 단일채널 영상의 품질 평가 알고리즘으로 개발된 FSIM (Feature Similarity) 값을 적용하는 것에 대한 타당성 분석을 수행하였다. 다양한 관측각도 및 관측방향에서 수집된 TerraSAR-X staring spotlight 자료를 분석에 사용하였다. SAR 영상의 공간 해상도에 따른 FSIM 값 변화는 매우 작은 값을 보였다. 따라서, 다양한 공간해상도의 SAR 영상 간에도 동일한 척도를 가지고 FSIM 값을 사용할 수 있다. 단일 SAR 영상을 이용하여 정합 오차에 따른 FSIM값 변화를 분석하였으며, 이 값을 기준으로 서로 다른 관측조건에서 수집된 영상 간의 정합 오차에 따른 FSIM 값 변화를 분석하였다. 서로 다른 관측각 또는 관측방향 자료 조합에서, 관측기하 차이에 의해 FSIM 값은 다소 저하되었다. 토지피복별 FSIM 값 분석 결과에서, 도심지역에서 정합오차에 따른 FSIM 값의 변화가 가장 뚜렷하게 나타났다. 따라서, FSIM 값을 이용하여 영상정합의 정확도를 판별하기 위해서는 도심지역에서 산출된 FSIM 값을 이용하는 것이 바람직하다. FSIM 값은 SAR 영상 정합 정확도에 대한 지표로 사용될 수 있는 충분한 가능성이 있는 것으로 판단된다.

전산화 치료계획의 CT/MRI 영상 융합 시 PLANNING MRI영상 획득의 유용성 평가 (USABILITY EVALUATION OF PLANNING MRI ACQUISITION WHEN CT/MRI FUSION OF COMPUTERIZED TREATMENT PLAN)

  • 박도근;최병기;김진만;이동훈;송기원;박영환
    • 대한방사선치료학회지
    • /
    • 제26권1호
    • /
    • pp.127-135
    • /
    • 2014
  • 목 적 : 전립선 암의 방사선 치료 시 컴퓨터 단층촬영 영상만을 이용하여 타겟 및 정상장기의 체적을 정의하기에는 제약성이 따른다. 이러한 제약성을 보완해주기 위하여 연부조직 대조도가 우수한 자기공명영상 장치가 사용되고 있다. 그러나 부정확한 CT/MRI 영상의 융합은 정확한 타겟 설정에 불확실성이 따르게 되며 정상장기의 불필요한 선량이 입사되어 부작용을 초래 할 수 있다. 이러한 불확실성을 줄이기 위해 본원에서는 CT/MRI영상 융합 시 모의 치료 과정과 동일한 고정용구와 자세로 환자를 셋업하여 MRI(Planning MRI)영상을 획득하고 있으며, 본 연구에서는 진단용 MRI영상과 Planning MRI영상을 비교 분석하여 Planning MRI의 유용성을 평가하고자 한다. 대상 및 방법 : 본원에서 2011년 8월부터 2013년 7월까지 전립선 암으로 진단을 받고 Non-hormone, Definitive RT 70 Gy/28 fx을 처방받은 10명의 환자를 대상으로 하였다. 모의 치료 후 30분 뒤에 MRI영상을 획득하였으며, 획득 된 CT/MRI영상은 뼈를 중심으로 Philips pinnacle v9.2를 이용하여 융합하였다. 전립선 Balloon tube의 유무에 따른 전립선의 변화를 측정하기 위하여 Planning MRI, 진단용 MRI영상에서의 전립선 체적을 측정 비교하였으며, 각각의 영상에서 전립선의 모양의 변화를 측정하기 위해 전립선의 중심에서 상하, 앞뒤, 좌우방향에서의 직경을 측정 비교하였다. 결 과 : Planning MRI, 진단용 MRI영상에서의 전립선 체적을 비교한 결과 각각 평균 $25.01cm^3$(범위 $15.84-34.75cm^3$), $25.05cm^3$(범위 $15.28-35.88cm^3$)의 결과를 얻었다. Planning MRI 대비 진단용 MRI는 0.12 % 증가로 그 차이는 크지 않다는 것을 알 수가 있었다. 하지만 Planning MRI를 기준으로 Transition zone 방향으로 총 $7.46cm^3$(29 %) 체적의 증가가 있었으며, Peripheral zone 방향으로 $8.52cm^3$(34 %)의 체적 감소가 있었다. 전립선 중심의 2차원 영상에서의 상하, 앞뒤, 좌우방향의 직경을 측정한 결과 Planning MRI에서 평균 3.82cm, 2.38cm, 4.59cm의 값을 나타냈으며, 진단용 MRI에서는 평균 3.37cm, 2.76cm, 4.51cm의 값을 알 수 있었다. Planning MRI 기준으로 앞뒤 방향으로 0.38cm(13 %)감소하였으나 좌우 방향 0.08cm(1.6 %), 상하방향 0.45cm(13 %)가 증가되었다. 결 론 : 본 연구의 결과를 바탕으로 Planning MRI와 진단용 MRI에서의 전립선의 총 체적은 큰 차이를 보이지 않았지만 직장에 전립선 Balloon tube 삽입으로 인한 전립선의 모양 및 부분 체적의 변화를 알 수가 있었다. 따라서 CT/MRI 영상 융합 시 Planning MRI영상을 이용한다면 진단용 MRI영상과 비교하여 Transition zone에 증가하는 체적만큼 손실 없이 타겟을 CTV에 포함시킬 수 있으며, Balloon으로 인한 Peripheral zone 체적의 감소를 더 명확히 구분하여 직장에 전달되는 방사선량을 줄일 수 있을 것이다. 이에 본 저자는 전산화 치료 계획에서의 CT/MRI영상 융합 시 모의 치료 과정과 동일한 고정용구와 자세를 재현하여 MRI영상을 획득하는 것이 유용할 것이라 사료된다.

CFD 기반의 순환 팬 배치 및 유속조절에 의한 식물공장의 에너지 효율 향상 (Improvement of Energy Efficiency of Plants Factory by Arranging Air Circulation Fan and Air Flow Control Based on CFD)

  • 문승미;권숙연;임재현
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.57-65
    • /
    • 2015
  • 농업과 IT기술 융합이 가속화됨에 따라 식물공장 내 작물의 품질 및 생산성을 향상시키기 위한 연구가 활발히 진행 중이다. 식물공장의 생산성을 최대화하기 위해서는 먼저 시설 내부의 특성을 고려하여 생육에 적합한 열 환경과 공기의 흐름을 제공하기 위한 고도의 생장환경 관리기술이 필요하다. 현재 운영되고 있는 식물공장은 특화된 공기유동장치의 설계 및 운영기술이 확립되지 않아 온도 기류 편차로 인한 불균일한 품질의 작물 생산, 재배기간 연장에 따른 에너지 소비 등의 문제점을 내포하고 있다. 이를 해결하기 위해서는 식물공장 시설의 설계 단계에서 전산유체역학 시뮬레이션을 이용한 공기유동장치의 배치 및 운영기술에 대한 최적화 과정이 선행되어야 한다. 본 연구에서는 CFD(Computational Fluid Dynamics) 시뮬레이션을 이용한 순환 팬의 적정 배치 및 유속을 파악하여 식물공장 시설 내부의 각 지점별 온도 편차를 최소화하고 에너지소비를 절감한다. 시뮬레이션 조건은 순환 팬의 설치 위치 및 수량 그리고 유속변화에 따라 총 12가지의 Case로 구분하였으며 해석을 위한 경계 조건 변수는 동일하게 설정하였다. 시뮬레이션 결과, 2set의 순환 팬을 식물재배기 상단에 부착한 Case D의 제어 조건이 설정온도에 부합하는 296.33K의 평균온도를 유지하면서 식물생육에 적합한 0.51m/s의 기류분포를 보였다. 또한, 순환 팬의 유속을 변화시킨 결과, 출구 유속을 2.09/s로 설정한 Case D-3이 에너지 효율 측면에서 가장 우수한 결과를 보였다.

GK2A/AMI와 GK2B/GOCI-II 자료를 융합 활용한 주간 고해상도 안개 탐지 알고리즘 개발 (Development of High-Resolution Fog Detection Algorithm for Daytime by Fusing GK2A/AMI and GK2B/GOCI-II Data)

  • 유하영;서명석
    • 대한원격탐사학회지
    • /
    • 제39권6_3호
    • /
    • pp.1779-1790
    • /
    • 2023
  • 위성 자료의 성능이 크게 개선됨에 따라 최근에는 위성을 이용하여 광범위한 영역에 대한 실시간 안개 탐지 알고리즘들이 개발되고 있다. 한반도 주변을 관측하는 기상위성 중 관측주기가 10분으로 시간해상도가 가장 우수한 GEO-KOMPSAT-2A/Advanced Meteorological Imager (GK2A/AMI)는 공간해상도가 500 m이다. 반면 GEO-KOMPSAT-2B/Geostationary Ocean Color Imager-II (GK2B/GOCI-II)는 해상도가 250 m지만, 1시간 주기로 관측하고 가시채널만 보유하고 있다. 따라서 본 연구에서는 한반도 주변에서 발생하는 안개를 10분 및 250 m 해상도로 탐지하기 위해 GK2AB 융합 안개 탐지 알고리즘(Fog Detection Algorithm, FDA)인 GK2AB FDA를 개발하였다. GK2AB FDA는 세 파트로 구성된다. 첫 번째로 현업 운용중인 GK2A 안개 탐지 알고리즘(GK2A FDA)으로 10분 및 500 m 해상도로 안개를 탐지한다. 두 번째 단계에서는 두 위성 자료 간 시공간 일치, 태양천정각과 파장역 차이를 보정한 GK2A normalized visible (NVIS)의 10분 변화량을 이용하여 GK2B NVIS를 10분 간격으로 외삽한다. 마지막 단계에서는 외삽된 GK2B NVIS, 태양천정각, GK2A FDA 산출물 등을 입력자료로 기계학습(의사결정나무)을 이용하여 개발된 GK2AB FDA로 지리적위치에 따라 안개를 탐지(250 m, 10분)한다. GK2AB FDA의 훈련에는 6개 사례, 검증에는 4개 사례가 이용되었다. GK2AB FDA의 정량적 검증에는 지상관측 시정, 풍속 그리고 상대습도 자료를 이용하였다. GK2AB FDA는 GK2A FDA에 비해 공간해상도가 4배 증가함에 따라 안개 및 비안개 화소가 보다 자세히 구분되었다. 또한 검증방법에 관계없이 GK2A FDA에 비해 probability of detection (POD)은 높고 Hanssen-Kuiper Skill score (KSS)는 높거나 비슷함을 보여 안개 탐지 수준이 개선된 것으로 보인다. 하지만 일부 사례에서는 GK2AB FDA의 false alarm ratio (FAR)와 Bias가 크게 나타나 안개를 과대탐지하는 문제를 보이고 있다.