• 제목/요약/키워드: Distributed memory

검색결과 397건 처리시간 0.025초

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

경남소재 일개조선소 근로자의 건강이상소견과 아르곤 용접과의 관련성 (Association between Subjective Distress Symptoms and Argon Welding among Shipyard Workers in Gyeongnam Province)

  • 최우호;진성미;권덕헌;김장락;강윤식;정백근;박기수;황영실;홍대용
    • 한국산업보건학회지
    • /
    • 제24권4호
    • /
    • pp.547-555
    • /
    • 2014
  • Objective: This study was conducted to investigate the association between subjective distress symptoms and argon welding among workers in Gyeongnam Province shipyard. Method: 31 argon and 29 non-argon welding workers were selected as study subjects in order to measure concentrations of personal dust, welding fumes and other hazardous materials such as ZnO, Pb, Cr, FeO, MnO, Cu, Ni, $TiO_2$, MgO, NO, $NO_2$, $O_3$, $O_2$, $CO_2$, CO and Ar. An interviewer-administered questionnaire survey was also performed on the same subjects. The items queried were as follows: age, height, weight, working duration, welding time, welding rod amounts used, drinking, smoking, and rate of subjective distress symptoms including headache and other symptoms such as fever, vomiting and nausea, metal fume fever, dizziness, tingling sensations, difficulty in breathing, memory loss, sleep disorders, emotional disturbance, hearing loss, hand tremors, visual impairment, neural abnormality, allergic reaction, runny nose and stuffiness, rhinitis, and suffocation. Statistical analysis was performed using SPSS software, version 18. Data are expressed as the mean ${\pm}SD$. An ${\chi}^2$-test and a normality test using a Shapiro wilk test were performed for the above variables. Logistic regression analysis was also conducted to identify the factors that affect the total score for subjective distress symptoms. Result: An association was shown between welding type (argon or non-argon welding) and the total score for subjective distress symptoms. Among the rate of complaining of subjective distress symptoms, vomiting and nausea, difficulty breathing, and allergic reactions were all significantly higher in the argon welding group. Only the concentration of dust and welding fumes was shown to be distributed normally after natural log transformation. According to logistic regression analysis, the correlations of working duration and welding type (argon or non-argon) between the total score of subjective distress symptoms were found to be statistically significant (p=0.041, p=0.049, respectively). Conclusion: Our results suggest that argon welding could cause subjective distress symptoms in shipyard workers.

치매 환자(患者) 84례(例)에 대한 유형별(類型別) 임상고찰(臨床考察) (The Clinical Analysis on 84 Cases of Dementia)

  • 전상윤;강화정;김윤완;홍석
    • 대한한방내과학회지
    • /
    • 제21권2호
    • /
    • pp.193-201
    • /
    • 2000
  • Objective : In western medicine, many medication therapies and non-medication therapies have been treated for dementia. But these methods did no more than symptomatic therapies, not basic treatment, which just can better subordinate symptoms. In fact, care or control became the very point of treatment of dementia. So, to try to find oriental medical treatments for Dementia, a clinical analysis was carried out for 84 patients who were diagnosed as Dementia through MMSE-K and treated in Dong-shin Oriental Medicine Kwangju Hospital and Karitaas Sanatorium from 10. Jan. 1998 to 20. May. 2000. Methods : Regardless of patterns of Dementia, the basic treatment(本治) is to supplement encephalon deficiency(腦髓不足). And the external treatment(標治) must be accompanied by through diagnosis according to symptoms(辨證). All patients were given Yukmi-jihwanghwan gami and acupuncture treatment. Results : Dementia of cerebral vascular type shows a high distribution(51 patients, 60.7%). Women also are distributed more widely(62명, 73.8%). In Age distribition, 70-79 years-32 patients(38.1%), over 80 years-21 patients(25%), 60-69 years-17 patients(20.2%), 50-59 years-13 patients(15.5%) and under 49 years-1 patient(1.2%). From this, Dementia occurs well over 60 years and the rate of occurrence of Dementia is high as people grow older. In past history of people with Dementia, hypertension is associated much(50 patients, 64.1%). Distribution of mental state by MMSE-K examination declined in orientaion, mathmatical faculty, memory faculty and composition faculty. In therapeutic effect by treatment duration, 14 patients(93.3%) out of 15 in sanatorium show a significant effect. And 52 patients(75.4%) out of 69 in the hospital show the same result. Especially, 11 patients with Alzheimer type in sanatorium showed an good effect when treated over 4 months. 40 patients(83.3%) with cerebral vascular type out of 48 in the hospital showed the stage of betterment. Conclusions : The basic treatment(本治) for Dementia is to supplement encephalon deficiency(腦髓不足). For promoting encephalon through supplementing kindney(補腎健腦), All patients were given Yukmi-jihwanghwan gami. And the external treatment(標治) through diagnosis according to symptoms(辨證) were be accompanied by. The result is quite effective. We consider there must be more research based on this study.

  • PDF

향토음식점 이용고객의 구전정보 이용 특성 분석: 전북지역을 중심으로 (A Study on the use of Word-of-Mouth(WOM) Information in the Customers of Korean Local Food Restaurants: Focused on Jeonbuk Area)

  • 김철호;차진아;최미경;정현영
    • 한국조리학회지
    • /
    • 제17권3호
    • /
    • pp.20-32
    • /
    • 2011
  • 본 연구는 향토음식점에 대한 구전정보에 대한 고객행동을 규명하기 위하여 수행하였다. 설문조사는 전북지역 거주자 500명을 대상으로 총 455부(회수율 91.0%)를 분석에 이용하였다. 자료는 SPSS 12.0 프로그램을 이용하여 분석하였다. 연구결과 향토음식점에 대한 구전정보 중 가장 많이 활용하고 있는 정보원에 있어서는 '직접 경험해 본 주위사람들의 추천'$(M=3.57{\pm}1.24$)과 '주변사람들을 통한 구전'($M=3.52{\pm}1.20$)이 높게 나타났고, 향토음식점에 대한 구전정보를 구할 때 소비자들이 중요시하는 속성에 대해 분석한 결과에서는 '음식의 맛'($M=4.16{\pm}1.15$), '음식점의 종사원 서비스'($M=3.79{\pm}1.11$)를 가장 중요시하는 것으로 나타났다. 향토음식점을 주위사람들에게 추천을 하는 동기에 대해 분석한 결과 '맛, 영양, 품질 모두 현지에서만이 유지할 수 있으므로'($M=3.53{\pm}1.10$)가 가장 높게 나타났고, '향토음식을 통해 지역 방문 기약을 오래도록 남기기 위하여'($M=3.52{\pm}1.03$), '향토음식을 구전을 통해 적극적으로 알릴 필요가 있으므로'($M=3.51{\pm}1.06$)순으로 나타났다. 이는 소비자의 향토음식점에 대한 추천이 음식 자체의 품질과 방문지역의 특성에 있음 보여준다. 연구결과 향토음식점에 대한 고객행동에 있어 구전정보의 중요성을 시사해 주고 있다.

  • PDF

도로 주행환경 분석을 위한 빅데이터 플랫폼 구축 정보기술 인프라 개발 (Development of Information Technology Infrastructures through Construction of Big Data Platform for Road Driving Environment Analysis)

  • 정인택;정규수
    • 한국산학기술학회논문지
    • /
    • 제19권3호
    • /
    • pp.669-678
    • /
    • 2018
  • 본 연구는 차량센싱데이터, 공공데이터 등 다종의 빅데이터를 활용하여 주행환경 분석 플랫폼 구축을 위한 정보기술 인프라를 개발하였다. 정보기술 인프라는 H/W 기술과 S/W 기술로 구분할 수 있다. 먼저, H/W 기술은 빅데이터 분산 처리를 위한 병렬처리 구조의 소형 플랫폼 서버를 개발하였다. 해당 서버는 1대의 마스터 노드와 9대의 슬래이브 노드로 구성하였으며, H/W 결함에 따른 데이터 유실을 막기 위하여 클러스터 기반 H/W 구성으로 설계하였다. 다음으로 S/W 기술은 빅데이터 수집 및 저장, 가공 및 분석, 정보시각화를 위한 각각의 프로그램을 개발하였다. 수집 S/W의 경우, 실시간 데이터는 카프카와 플럼으로 비실시간 데이터는 스쿱을 이용하여 수집 인터페이스를 개발하였다. 저장 S/W는 데이터의 활용 용도에 따라 하둡 분산파일시스템과 카산드라 DB로 구분하여 저장하는 인터페이스를 개발하였다. 가공 S/W는 그리드 인덱스 기법을 적용하여 수집데이터의 공간 단위 매칭과 시간간격 보간 및 집계를 위한 프로그램을 개발하였다. 분석 S/W는 개발 알고리즘의 탐재 및 평가, 장래 주행환경 예측모형 개발을 위하여 제플린 노트북 기반의 분석 도구를 개발하였다. 마지막으로 정보시각화 S/W는 다양한 주행환경 정보제공 및 시각화를 위하여 지오서버 기반의 웹 GIS 엔진 프로그램을 개발하였다. 성능평가는 개발서버의 메모리 용량과 코어개수에 따른 연산 테스트를 수행하였으며, 타 기관의 클라우드 컴퓨팅과도 연산성능을 비교하였다. 그 결과, 개발 서버에 대한 최적의 익스큐터 개수, 메모리 용량과 코어 개수를 도출하였으며, 개발 서버는 타 시스템 보다 연산성능이 우수한 것으로 나타났다.

하둡 기반 빅 데이터 기법을 이용한 웹 서비스 데이터 처리 설계 및 구현 (Design and Implementation of an Efficient Web Services Data Processing Using Hadoop-Based Big Data Processing Technique)

  • 김현주
    • 한국산학기술학회논문지
    • /
    • 제16권1호
    • /
    • pp.726-734
    • /
    • 2015
  • 데이터를 구조화하여 사용하는 관계형 데이터베이스가 현재까지 데이터 관리에 가장 많이 사용되고 있다. 그러나 관계형 데이터베이스는 데이터가 증가되면 데이터를 저장하거나 조회할 때 읽기, 쓰기 연산 수행에 제약 조건이 발생되어 서비스가 느려지는 현상이 나타난다. 또 새로운 업무가 추가되면 데이터베이스 내 데이터는 증가되고 결국 이를 해결하기 위해 하드웨어의 병렬 구성, CPU, 메모리, 네트워크 등 추가적인 인프라 구성을 필요로 하게 된다. 본 논문에서는 관계형 데이터베이스의 데이터 증가로 느려지는 웹 정보서비스 개선을 위해 기존 관계형 데이터베이스의 데이터를 하둡 HDFS로 전송하고 이를 일원화하여 데이터를 재구성한 후 사용자에게 하둡 데이터 처리로 대량의 데이터를 빠르고 안전하게 추출하는 모델을 구현한다. 본 시스템 적용을 위해 웹 기반 민원시스템과 비정형 데이터 처리인 이미지 파일 저장에 본 제안시스템을 적용하였다. 적용결과 관계형 데이터베이스 시스템보다 제안시스템 데이터 처리가 0.4초 더 빠른 결과를 얻을 수 있었고 기존 관계형 데이터베이스와 같은 대량의 데이터를 처리를 빅 데이터 기법인 하둡 데이터 처리로도 웹 정보서비스를 지원이 가능하였다. 또한 하둡은 오픈소스로 제공되어 소프트웨어 구매 비용을 줄여주는 장점이 있으며 기존 관계형 데이터베이스의 데이터 증가로 효율적인 대용량 데이터 처리를 요구하는 조직에게 도움을 줄 수 있을 것이다.

SPQUSAR : Apache Spark를 이용한 대용량의 정성적 공간 추론기 (SPQUSAR : A Large-Scale Qualitative Spatial Reasoner Using Apache Spark)

  • 김종환;김종훈;김인철
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권12호
    • /
    • pp.774-779
    • /
    • 2015
  • 본 논문에서는 단위 추론 작업들 간의 순차 처리와 반복 처리에 효과적인 인-메모리 방식의 고속 클러스터 컴퓨팅 환경인 Apache Spark을 이용한 대용량의 정성적 공간 추론기의 설계와 구현에 관해 소개한다. 본 논문에서 제안하는 공간 추론기는 매우 효율적인 방법으로, 공간 객체들 간의 위상 관계와 방향 관계를 나타내는 대규모 공간 지식베이스의 무결성을 검사할 수 있을 뿐만 아니라, 주어진 공간 지식베이스로부터 새로운 사실들을 유도해냄으로써 지식베이스를 확장할 수도 있다. 일반적으로 공간 객체들 간의 위상 관계와 방향 관계에 관한 정성적 추론은 이접 관계들 간의 많은 조합 연산들을 포함한다. 본 추론기에서는 공간 추론에 필요한 최소한의 이접 관계 집합을 찾아내고 이들만을 포함하도록 조합 표를 축소함으로써, 추론의 효율성을 크게 개선시켰다. 또한, 본 추론기에서는 추론 성능 향상을 위해 Hadoop 클러스터 시스템에서 분산 추론 작업이 진행되는 동안 디스크 입출력을 최소화하도록 설계하였다. 대용량의 가상 및 실제 공간 지식베이스를 이용한 실험들에서, 본 논문에서 제안하는 Apache Spark 기반의 정성적 공간 추론기가 MapReduce 기반의 기존 추론기보다 더 높은 성능을 보여주었다.

반도체 검증을 위한 MPI 기반 클러스터에서의 대용량 FDTD 시뮬레이션 연산환경 구축 (Implementation of Massive FDTD Simulation Computing Model Based on MPI Cluster for Semi-conductor Process)

  • 이승일;김연일;이상길;이철훈
    • 한국콘텐츠학회논문지
    • /
    • 제15권9호
    • /
    • pp.21-28
    • /
    • 2015
  • 반도체 공정에서는 소자 내부의 물리량 계산을 통해 불순물의 움직임을 해석하여 결점을 검출하는 시뮬레이션을 수행하게 된다. 이를 위해 유한 차분 시간 영역 알고리즘(Finite-Difference Time-Domain, 이하 FDTD)과 같은 수치해석 기법이 사용된다. 반도체 칩의 집적도 향상으로 인하여 소자의 크기는 나노스케일 시대로 접어들었으며, 시뮬레이션 사이즈 또한 커지고 있는 추세이다. 이에 따라 CPU와 GPU 같은 하나의 연산 장치에서 수행할 수 없는 문제와 다중의 연산 장치로 구성된 한 대의 컴퓨터에서 수행할 수 없는 문제가 발생하기도 한다. 이러한 문제로 인해 분산 병렬처리를 통한 FDTD 알고리즘 연구가 진행되고 있다. 하지만 기존의 연구들은 단일 연산장치만을 이용하기 때문에 GPU를 사용하는 경우 연산 속도는 빠르나 메모리의 제한이 있으며 CPU의 경우 GPU에 비해 연산 속도가 느린 단점이 존재한다. 이를 해결하기 위해 본 논문에서는 CPU, GPU의 이기종 연산 장치를 포함하는 컴퓨터로 구축된 클러스터 상에서 작업 사이즈에 제한되지 않고 시뮬레이션 수행이 가능한 컴퓨팅 모델을 구현하였다. 점대점 통신 기반의 MPI 라이브러리를 이용하여 연산 장치 간 통신을 통한 시뮬레이션을 테스트 하였고 사용하는 연산 장치의 종류와 수에 상관없이 시뮬레이션이 정상 동작함을 확인하였다.

GeoSensor 환경에서 공간 질의 정확도 향상을 위한 선-필터링을 이용한 후-부하제한 기법 (Pre-Filtering based Post-Load Shedding Method for Improving Spatial Queries Accuracy in GeoSensor Environment)

  • 김호;백성하;이동욱;김경배;배해영
    • 한국공간정보시스템학회 논문지
    • /
    • 제12권1호
    • /
    • pp.18-27
    • /
    • 2010
  • u-GIS환경에서 GeoSensor를 기반으로 하는 GeoSensor 환경은 다양한 센서들로부터 수집한 동적인 데이터와 기존 GIS인 정적인 지형지물 정보의 융합을 요구한다. 이 환경의 핵심인 GeoSensor는 넓은 지역에 산발적으로 분포하며, 다양한 크기의 데이터를 끊임없이 수집한다. 따라서 Data Stream Management System(DSMS)은 제한된 메모리로 인하여 저장 공간을 초과하는 문제가 발생한다. 이를 해결하기 위해 다양한 부하제한 기법들이 활발히 연구되고 있다. 부하제한 기법에는 크게 랜덤부하제한 기법과 의미적부하제한 기법, 샘플링 기법으로 분류된다. 랜덤부하제한 기법은 무작위로 데이터를 선택하여 삭제하고, 의미적부하제한 기법은 데이터의 우선순위를 부여하여 우선순위가 낮은 데이터부터 삭제한다. 샘플링 기법은 통계적인 연산을 이용하여 샘플링 비율을 산정하고 이를 토대로 부하를 제한한다. 그러나 기존 기법들은 공간적 특성을 전혀 고려하지 않기 때문에 공간 질의의 정확도를 감소시키는 문제를 갖는다. 본 논문은 GeoSensor 환경에서 DSMS에 발생하는 과부하 발생을 제한하고 공간 질의의 정확도를 향상시키기 위해 선-필터링을 이용한 후-부하제한 기법을 제안한다. 본 기법은 선-필터링을 통하여 스트림 큐에 불필요하게 가중되는 부하를 1차적으로 제한하며, 과부하 발생 시 공간 질의 결과 정확도를 보장하기 위하여 공간 중요도와 데이터 중요도를 고려하여 후-부하제한을 수행한다. 이 기법을 이용하여 부하제한 수행 횟수를 효과적으로 감소시켰고, 공간 질의의 정확도를 향상시켰다.

실시간 위치 기반 서비스를 위한 확장 SLDS 설계 및 구현 (Design and Implementation of the Extended SLDS for Real-time Location Based Services)

  • 이승원;강홍구;홍동숙;한기준
    • 한국공간정보시스템학회 논문지
    • /
    • 제7권2호
    • /
    • pp.47-56
    • /
    • 2005
  • 최근 이동 컴퓨팅 기술과 무선 측위 기술이 급속도로 발전하고 무선 인터넷이 보편화됨에 따라 이동체의 위치 정보를 활용하는 위치 기반 서비스(LBS: Location Based Service)가 다양한 분야에서 제공되고 있다. 위치 기반 서비스를 제공하기 위해서는 이동체의 위치 정보를 주기적으로 저장하는 위치 데이타 서버가 필요하다. 기존에는 이동체의 위치 데이타를 저장하기 위해서 GIS 서버를 사용해 왔다. 하지만 GIS 서버는 정적 데이타를 기반으로 설계되었기 때문에 이동체의 위치 데이타를 저장하는데 적합하지 않다. 따라서, 본 논문에서는 이동체의 위치 데이타를 관리하기 위해 제안된 클러스터 기반 분산 컴퓨팅 구조를 갖는 GALIS(Gracefully Aging Location Information System) 아키텍처의 서브 시스템인 SLDS(Short-term Location Data Subsystem)를 확장하여 실시간 위치 기반 서비스를 위한 확장 SLDS를 설계 및 구현하였다. 확장 SLDS는 TMO(Time-triggered Message-triggered Object) 프로그래밍 기법을 이용하여 위치 데이타 처리의 실시간성을 보장하며, 이동체 데이타를 다수의 노드에 적절히 분산시킴으로써 대용량 위치 데이타를 효율적으로 관리할 수 있다. 그리고, 메인메모리에서 위치 데이타를 관리하기 때문에 검색 및 갱신 오버헤드가 적다. 또한, 실험을 통하여 확장 SLDS는 기존에 제시된 SLDS 보다 더 효율적인 저장과 부하 분산을 수행한다는 것을 확인하였다.

  • PDF