• 제목/요약/키워드: 데이터 획득 빈도

검색결과 46건 처리시간 0.027초

다중 무선 방송채널에서의 상호관련 데이터들을 위한 효율적인 데이터할당 방법 (Efficient data allocation scheme for dependent items over multiple wireless broadcast channels)

  • 박성욱;정성원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.219-222
    • /
    • 2007
  • 무선방송환경은 모바일 클라이언트의 수에 상관없이 다수의 클라이언트에게 데이터를 보낼 수 있다는 특징으로 인하여 많은 관심을 받아왔다. 그러나 기존 대부분의 연구는 한 개의 독립적인 데이터를 최단시간에 획득하는 것을 목표로 하였고, 질의어와 같이 상호 관련된 여러 데이터를 동시에 획득해야 하는 경우에 대한 연구는 미비했다. 또한 그러한 논문들에서도 질의어 내의 데이터들이 다른 채널상의 동일시간에 나타나지 않도록 할당하는 문제에 대해서만 연구되어 왔고 각 데이터의 요청빈도에 따른 데이터의 접근확률은 반영되지 않았다. 우리는 본 논문에서 이러한 데이터들을 채널에 할당하는 문제뿐만 아니라 여러 질의어에 포함되어 상대적으로 요청빈도가 높은 데이터들을 한 방송 사이클 동안 다중 채널상에 여러 번 할당되게 하여 해당 질의어에 속한 데이터들을 모두 획득하는데 요구되는 평균응답시간을 줄이는 새로운 방법을 제안한다.

상수관망 데이터 수집의 최적 빈도 결정을 위한 방법론적 접근 (Methodology for determining optimal data sampling frequencies in water distribution systems)

  • 김현준;정은혜;황경엽
    • 상하수도학회지
    • /
    • 제37권6호
    • /
    • pp.383-394
    • /
    • 2023
  • Currently, there is no definitive regulation for the appropriate frequency of data sampling in water distribution networks, yet it plays a crucial role in the efficient operation of these systems. This study proposes a new methodology for determining the optimal frequency of data acquisition in water distribution networks. Based on the decomposition of signals using harmonic series, this methodology has been validated using actual data from water distribution networks. By analyzing 12 types of data collected from two points, it was demonstrated that utilizing the factors and cumulative periodograms of harmonic series enables similar accuracy at lower data acquisition frequencies compared to the original signals. Type your abstract here.

환경 빅데이터 이슈 분석을 위한 용어 가중치 기법 비교 (Comparison of Term-Weighting Schemes for Environmental Big Data Analysis)

  • 김정진;정한석
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.236-236
    • /
    • 2021
  • 최근 텍스트와 같은 비정형 데이터의 생성 속도가 급격하게 증가함에 따라, 이를 분석하기 위한 기술들의 필요성이 커지고 있다. 텍스트 마이닝은 자연어 처리기술을 사용하여 비정형 텍스트를 정형화하고, 문서에서 가치있는 정보를 획득할 수 있는 기법 중 하나이다. 텍스트 마이닝 기법은 일반적으로 각각의 분서별로 특정 용어의 사용 빈도를 나타내는 문서-용어 빈도행렬을 사용하여 용어의 중요도를 나타내고, 다양한 연구 분야에서 이를 활용하고 있다. 하지만, 문서-용어 빈도 행렬에서 나타내는 용어들의 빈도들은 문서들의 차별성과 그에 따른 용어들의 중요도를 나타내기 어렵기때문에, 용어 가중치를 적용하여 문서가 가지고 있는 특징을 분류하는 방법이 필수적이다. 다양한 용어 가중치를 적용하는 방법들이 개발되어 적용되고 있지만, 환경 분야에서는 용어 가중치 기법 적용에 따른 효율성 평가 연구가 미비한 상황이다. 또한, 환경 이슈 분석의 경우 단순히 문서들에 특징을 파악하고 주어진 문서들을 분류하기보다, 시간적 분포도에 따른 각 문서의 특징을 반영하는 것도 상대적으로 중요하다. 따라서, 본 연구에서는 텍스트 마이닝을 이용하여 2015-2020년의 서울지역 환경뉴스 데이터를 사용하여 환경 이슈 분석에 적합한 용어 가중치 기법들을 비교분석하였다. 용어 가중치 기법으로는 TF-IDF (Term frequency-inverse document frquency), BM25, TF-IGM (TF-inverse gravity moment), TF-IDF-ICSDF (TF-IDF-inverse classs space density frequency)를 적용하였다. 본 연구를 통해 환경문서 및 개체 분류에 대한 최적화된 용어 가중치 기법을 제시하고, 서울지역의 환경 이슈와 관련된 핵심어 추출정보를 제공하고자 한다.

  • PDF

Aerial Triangulation을 이용한 UAV의 위치/자세 보정 (Correction of UAV's Position/Altitude through Aerial Triangulation)

  • 최경아;이임평
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2009년도 춘계학술대회 논문집
    • /
    • pp.61-65
    • /
    • 2009
  • 매년 재난/재해의 발생 빈도와 피해 규모가 증가하고 있다. 그 피해를 최소화하기 위해 주기적인 모니터링을 수행하여 위기 상황을 사전에 대비하고 긴급 대응 체계를 구축하여 상황 발생 시 피해 상황을 신속하게 파악할 수시스템에 있어야 한다. 모니터링의 용이성과 신속성을 확보하기 위해 UAV에 기반한 긴급 매핑 대한 관심이 증가하고 있다. 그러나 이러한 시스템으로부터 획득된 센서 데이터가 Georeferencing되었을 때 이로부터 다양한 공간 정보를 도출할 수 있다 본 논문에서는 UAV 기반의 매핑 시스템으로부터 획득된 센서 데이터를 시뮬레이션 해보고 시뮬레이션 데이터에 대하여 Aerial Triangulation을 수행하여 영상을 Georeferncing하고 위치/자세 정보를 보정하고자 한다. 실험은 (1) 시뮬레이션 데이터 생성, (2) 초기값 생성, (3) AT 수행을 통한 위치/자세 조정의 3단계로 구성된다. 800m 길이의 1개 스트립, 500m 길이의 2개 스트립으로 나눠 비행경로를 정하고 200m, 400m, 600m의 비행고도에 대하여 다양한 실험을 수행하였다. 실험 결과 위치/자세의 초기값 RMSE에서 90% 이상 개선된 RMSE를 얻을 수 있었으며, 비행고도가 높아질수록 RMSE의 향상도는 반비례하였다. 향후에는 Sequential 알고리즘을 적용하여 연산 속도를 향상시킬 수 있고 궁극적으로 실시간 영상 Georeferencing을 가능하게 할 것으로 기대된다.

  • PDF

택시 데이터에 대한 효율적인 Top-K 빈도 검색 (Finding Frequent Route of Taxi Trip Events Based on MapReduce and MongoDB)

  • ;안성아;;정한유;권준호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권9호
    • /
    • pp.347-356
    • /
    • 2015
  • IoT(사물인터넷) 기술의 빠른 개발로 인하여 기존의 택시들은 디스패처와 위치 시스템을 통해 서로 연결되고 있다. 일반적으로 현대의 택시들은 경로 정보를 획득하기 위한 목적으로 GPS(Global Positioning System)를 탑재하고 있다. 택시 운행 데이터들의 경로 빈도를 분석하여, 주어진 질의 시간에 해당하는 빈번한 경로를 찾을 수 있다. 그러나 위치 데이터의 용량이 매우 크고 복잡하기 때문에 택시의 운행 이벤트의 위치 데이터를 분석된 빈도 정보로 변환할 때에 확장성 문제가 발생한다. 이 문제를 해결하기 위하여, NoSQL 데이터베이스에 기반한 택시 운행 데이터에 대한 Top-K 질의 시스템을 제안한다. 첫째, 원시 택시 운행 이벤트를 분석하고 모든 경로들의 빈도 정보를 추출한다. 추출한 경로 정보는 NoSQL 문서-지향 데이터베이스인 MongoDB에 해시 기반의 인덱스 구조로 저장한다. 주로 발생하는 경로에 대한 효율적인 Top-K 질의 처리는 몽고DB의 상에서 이루어진다. 미국 뉴욕시의 실제 택시 운행 데이터를 이용한 실험을 통하여 알고리즘의 효율성을 검증하였다.

차량에 부착된 회전식 레이저 스캐너 데이터를 이용한 도로면 추출기법 (Road detection using vehicle-mounted rotary laser scanner)

  • 이수암;김태정;정동훈;윤덕근;성정곤
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2007년도 춘계학술대회 논문집
    • /
    • pp.105-108
    • /
    • 2007
  • 차량에 부착된 회전식 레이저 스캐너는 360도로 회전하면서 데이터를 취득하기 때문에 고정식 레이저 스캐너에 비해 더 광범위하고 정확한 3차원 데이터를 획득하고 생성할 수 있다. 그러나 레이저 데이터 자료는 표적까지의 거리와 취득 당시의 스캐너의 각도로만 구성되어있기 때문에 이를 사용하기 위해서 이 데이터들을 일련의 좌표변환과정을 거쳐서 3차원 직교좌표계로 변환시킨다. 이 논문의 목적은 회전식 레이저에서 획득된 데이터를 DEM화하고,DEM영상의 밝기값, 즉 높이값을 이용하여 도로변을 주위의 사물과 분리하여 추출하는 것에 있다. 도로면은 일반적으로 주위의 사물에 비해 그 높이가 낮고 고르게 분포되어 있다고 가정한다. 그렇기 때문에 이 도로면의 높이를 대표할 수 있는 적절한 임계값을 찾을 수 있다면 도로면의 분리 또한 가능하다. 도로면의 추출을 위해 제안된 방법은 취득된 레이저 데이터를 일정 간격의 높이로 나누고 그에 대한 히스토그램을 구한 후, 가장 많은 빈도수를 나타낸 지역의 값을 염계치로 설정하는 방법과,레이저 스캐너가 지표면을 향할 때의 각도,즉 270도 일 때 취득된 거리의 값들을 수집한 후, 그 평균값을 임계치로 설정하는 방법이다. 이렇게 구해진 임계치를 이용 그 값보다 작은 지역을 도로로 인식하였으며,실험 결과 레이저 스캐너의 각도를 이용한 방법이 더욱 효과적으로 도로를 추출할 수 있음을 확인할 수 있었다.

  • PDF

LiDAR 데이터와 Google Earth 영상의 매핑 (Mapping with LiDAR Data and Google Earth Image)

  • 이효종;김성약
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.755-756
    • /
    • 2008
  • 지리정보시스템(GIS)은 경제발전, 환경보전, 도시계발 등에서 중요한 역할을 하고 있다. 지리정보시스템에서 빈도높게 측정되고 있는 것은 LiDAR(고정밀 항공 레이저 측량기술) 데이터로써 높은 위치정확도를 지니며, 데이터의 취득시 바로 지상좌표를 취득함으로써 좌표의 변환이 필요 없기 때문에 좀더 빠르게 데이터를 처리할 수 있는 장점을 가지고 있다. 본 연구에서는 이러한 LiDAR의 자료와 구글어스 등과 같이 2차원 영상을 획득한 경우, 3차원의 LiDAR 데이터를 2차원에 매핑시키는 방법을 연구하였다. 2차원 영상의 기준점을 정확하게 파악하는한 3차원의 LiDAR 데이터와 정확하게 일치하는 것으로 확인되었다.

  • PDF

XML DOM을 이용한 웹문서 검색 알고리즘 (Retrieval algorithm for Web Document using XML DOM)

  • 김노환;정충교
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권6호
    • /
    • pp.775-782
    • /
    • 2001
  • 현재까지 웹 검색엔진은 각 문서가 어떤 키워드를 얼마나 갖고 있는지, 키워드의 빈도수에 따라서, 문서에 키워드를 많이 포함하는 문서가 가까운 문서라는 가정에 의거 문서 순위를 사용자에게 보여주는 형태였다. 이런 형태의 검색은 HTML 웹 데이터처럼 구조적인 정보를 포함하지 않은 일반 문서형태의 경우 키워드의 발생빈도를 고려하는 형태에서는 별 문제가 없지만 구조적인 정보를 갖고 있는 XML로 표현된 웹 데이터일 경우에는 그래프 형태의 모델표현이 가능하기 때문에 단순히 키워드의 빈도만을 고려하는 형태로서는 바른 검색결과를 얻을 수 없다. 따라서 XML 문서의 구조적인 특성을 최대한 활용하여 SQL과 유사한 형태의 질의를 통하여 원하는 데이터만을 추출한다면 단순히 키워드에 의존하는 형태의 질의를 탈피하며 보다 분명한 검색결과를 획득할 수 있다고 생각한다. 본 논문에서는 XML DOM을 이용하여 XML 데이터의 정보검색 시스템을 모델링하고, 이와 관련된 알고리즘을 제안하고자 한다.

  • PDF

생리신호에 의한 감성 이미지 실시간 분류 시스템 개발 (Real-time classification system of emotion image using physiological signal)

  • 이정년;곽동민;정봉천;전기혁;황민철
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 추계학술대회
    • /
    • pp.232-235
    • /
    • 2009
  • 본 연구에서는 실시간으로 변화하는 사용자의 감성을 평가하여 각성 또는 이완으로 분류된 시선 정보 이미지를 저장하는 시스템을 구현하고자 한다. 사용자의 감성을 분류하기 위한 요소는 Larson과 Diner 가 정의한 2 차원 감성모델에서 각성, 이완 요소를 사용한다. 감성 상태를 분류하기 위하여 자율 신경계 중 착용과 휴대가 간편한 PPG 센서를 사용하며, PPG 를 분석하기 위한 변수로는 진폭의 양과 초당 Peak 의 빈도수를 사용한다. 머리에 고정할 수 있는 캠을 사용하여 사용자가 바라보는 시선 정보를 획득하고, 클라이언트 컴퓨터는 획득된 시선 정보를 UDP 통신을 사용해 서버 컴퓨터로 전송하는 시스템이다. 320(pixel)*240(pixel)*32(bit)인 영상 데이터를 1/30 로 압축하여 전송하며, 각성과 이완으로 분류되는 시점의 영상을 블록화하여 JPEG 이미지로 저장한다. 본 시스템은 실시간으로 변화되는 사용자의 감성 상태를 파악하여 이미지를 전송하고 서버 컴퓨터에 저장함으로써 당시 사용자가 느꼈던 감성들에 대해 피드백을 주고자 하는데 의의가 있다.

  • PDF

소셜 네트워크 서비스 데이터에서 Bi-LSTM 기반 약물 부작용 게시물 탐지 모델 연구 (A Study on Bi-LSTM-Based Drug Side Effects Post Detection Model in Social Network Service Data)

  • 이충천;이승희;송미화;이수현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.397-400
    • /
    • 2022
  • 본 연구에서는 소셜 네트워크 서비스(Social Network Service, SNS) 데이터로부터 약물 부작용 게시글을 추출하기 위한 순환 신경망(Recurrent Neural Network, RNN) 기반 분류 모델을 제안한다. 먼저, 처방 빈도가 높으며 게시글을 많이 확보할 수 있는 케토프로펜 약물에 대하여 국내 최대 소셜 네트워크 플랫폼인 네이버 블로그와 카페의 게시글(2005 년~2020 년)을 확보하고 최종 3,828 건을 분석하였다. 결과적으로 케토프로펜에 대한 3 종(약물, 부작용, 불용어)의 렉시콘을 정의하였으며 이를 기반으로 Bi-LSTM 분류모델 기준 87%의 정확도를 얻었다. 본 연구에서 제안하는 모델은 SNS 데이터가 약물 부작용 정보 획득을 위한 기존 (전자의무기록, 자발적 약물 부작용 보고 시스템 등) 자료원에 대한 보완적 정보원이 되며, 개발된 Bi-LSTM 분류모델을 통해 약물 부작용 게시글 추출의 편리성을 제공할 것으로 기대된다.