• 제목/요약/키워드: database schema

검색결과 357건 처리시간 0.023초

시각적 정보력이 향상된 수치지도 Ver. 2.0제작 (Manufacturing Digital Map Version 2.0 Increased Visual Information)

  • 박경식;이재기
    • 한국측량학회지
    • /
    • 제23권3호
    • /
    • pp.221-231
    • /
    • 2005
  • 수치지도 Ver. 2.0은 지리정보시스템에 적합하지만 수치지도로부터 외형적으로 정보를 취득하거나, 종이지도 제작을 위한 용이성 등은 오히려 퇴보되었다. 본. 연구에서는 이러한 문제점을 고려하여 지리정보시스템에서 요구하는 기하하적, 논리적 데이터구조를 가지면서 종이지도 또는 수치지도 Ver. 1.0 수준의 정보력을 갖는 수치지도 Ver. 2.0을 제작하고자 한다. 연구를 위하여 동일지역의 종이지형도, 수치지도 Ver 1.0 및 수치지도 Ver 2.0을 대상으로 지형코드, 색상, 지형코드우선순위 등을 분석하였다. 지형코드의 우선순위에 대해서는 실제지형과 같은 순위로 배열함을 원칙으로 하되 위치에 따라 순위가 뒤바뀌는 경우에 대해서는 별도의 코드를 생성하였다. 본 연구의 특성상 색상 등과 같이 주관적인 감각이 포함되는 요소에 대해서는 기존의 도식규정을 준수하며, 지형지물의 외형적 표현방식과 전산자료구조가 서로 대치될 때는 자료구조에 우선순위를 두었다.

경로정보의 중복을 제거한 XML 문서의 저장 및 질의처리 기법 (Storage and Retrieval of XML Documents Without Redundant Path Information)

  • 이혜자;정병수;김대호;이영구
    • 정보처리학회논문지D
    • /
    • 제12D권5호
    • /
    • pp.663-672
    • /
    • 2005
  • 본 논문에서는 대용량 XML 문서를 저장하고 그로부터 원하는 정보를 효율적으로 찾기 위한 방법으로, 경로정보의 중복을 제거하면서 역 인덱스를 함께 이용한 방법을 제안한다. XML 문서는 트리구조에 기반한 노드로 분해되어, 노드 타입에 따라, 루트에서 각 노드까지의 경로정보와 함께 관계형 테이블에 저장된다. 경로정보를 이용한 기존의 U 질의 기법들에서는 모든 엘리먼트 노드들에 대해 경로정보를 저장함에 따라 정보의 양이 증가하여 질의 처리의 성능을 저하시키는 요인이 되고 있다. 제안 방법에서는 경로정보 중 가장 긴 단말 엘리먼트 노드까지의 경로인 단말 엘리먼트 경로(leaf element path)만 저장하고 내부 엘리먼트 노드까지의 경로인 내부 엘리먼트 경로들(internal element paths)은 저장하지 않는다. 단말 엘리먼트 경로만을 대상으로 하여 역 인덱스를 구성함에 따라, 기존의 역 인덱스 이용 기법에 비해 키워드별 포스팅 리스트(posting lists)의 수를 줄이게 된다. 제안 방법에서는 U 문서의 저장과 질의를 위하여 XML 문서에 대한 스키마 정보가 없어도 되며, 관계형 데이터베이스의 어떤 확장도 요구하지 않는다. 실험을 통해 제안 방법은 실험 범위 내에서 기존 기법들에 비해 좋은 성능을 보인다.

MDR과 온톨로지를 결합한 3계층 정보 통합 시스템 (A 3-Layered Information Integration System based on MDRs End Ontology)

  • 백두권;최요한;박성공;이정욱;정동원
    • 정보처리학회논문지D
    • /
    • 제10D권2호
    • /
    • pp.247-260
    • /
    • 2003
  • 한 도메인 내에서 다양한 데이터베이스의 데이터를 공유하고 표준화하기 위해 MDR(Metadata Registry)을 이용하여 정보를 통합할 수 있다. 그러나 MDR을 구축하는 조직간 데이터요소 표현의 불일치 때문에 MDR간 광역적인 정보를 통합하는데 어려움이 있다. 또한 웹과 같은 다양한 데이터베이스가 존재하는 환경에서 통합된 정보를 검색하고자 하는 사용자는 각각의 데이터베이스 스키마 정보를 확보하기엔 한계가 있다. 따라서 본 논문에서는 MDR과 온톨로지(Ontology)를 결합한 3계층 정보 통합 시스템을 제안한다. MDR간 데이터요소의 관계를 사상시키고 표현의 불일치를 해결하기 위해 MDR의 표준성기능과 온톨로지의 개념과 관계기능을 결합한 정보 통합 모델을 정의하고 에이전트 기술을 적용한 계층적이고 독립적인 정보 통합 아키텍처를 제안한다. 온톨로지는 사용자의 질의에서 개념을 추출하기 위한 의미망(semantic network)의 역할과 MDR간의 데이터요소 관계를 설정하기 위한 기능으로 적용되었다. MDR과 지식베이스(Knowledge Base)는 데이터요소간 표현 불일치를 해결하기 위해 적용하였다. 이러한 핵심요소를 고려하여 제안된 아키텍처를 사용하여 MDR과 온톨로지를 결합한 3계층 정보 통합 시스템을 구현하였다.

공개정보 기반 타임라인 프로파일링을 위한 확장된 워크플로우 개발 (Expanded Workflow Development for OSINT(Open Source Intelligence)-based Profiling with Timeline)

  • 권희원;진세영;심민선;권혜민;이인수;이승훈;김명주
    • 디지털융복합연구
    • /
    • 제19권3호
    • /
    • pp.187-194
    • /
    • 2021
  • 다양한 형태로 표면 웹에 급증하고 있는 공개정보(OSINT)는 프로파일링 기법을 사용하여 범죄 수사에도 활용할 수 있다. 이러한 기술은 미국 등 외국의 수사기관에서는 상당히 보편화되었으며 일부는 고도화 작업도 진행하고 있다. 반면에 국내의 경우 많이 사용하지 못할 뿐 아니라 수사 인력의 개인적 경험과 지식수준에 따라 획득하는 정보의 양과 질에 있어서 큰 편차를 보이고 있다. 본 논문에서는 가장 잘 알려진 Bazzell의 모델과 달리 한국적 웹 환경을 고려하고 시간 정보까지 제공해주는 한국형 공개정보 기반 프로파일링 기법을 개선된 워크플로우를 중심으로 제시한다. 아울러 프로파일링의 효율성 향상을 목적으로 설계한 검색 데이터베이스의 스키마도 제시한다. 이곳에서 제시한 기법을 사용하면 범죄 수사에서 있어서 일정 수준의 양과 질을 보장하는 검색 결과를 얻을 수 있을 뿐 아니라, 관련 수사 인력에 대한 표준 훈련 과정으로도 사용할 수 있다. 아울러 이 기법을 활용한 범죄 수사의 실효성과 효율성을 높이려면 법률적 기반강화 및 동화된 기술 도입이 더 필요하다.

지휘통제 관련 정보교환모델 비교분석 및 시사점 (Comparative Analysis and Implications of Command and Control(C2)-related Information Exchange Models)

  • 김건영;박규동;손미애
    • 인터넷정보학회논문지
    • /
    • 제23권6호
    • /
    • pp.59-69
    • /
    • 2022
  • 효과적인 전장상황 인식 및 지휘결심을 위해서는 체계 간의 솔기없는 정보교환이 핵심적이다. 그러나 각 체계는 각자의 목적에 맞게 독립적으로 개발되었기 때문에, 효과적으로 정보를 교환하기 위해서는 체계 간 상호운용성을 보장하여야 한다. 우리 군의 경우 데이터 교환을 위한 공통 메시지 포맷을 활용함으로써 문법적 상호운용성(Syntactic interoperability)을 보장하고 있다. 그러나 단순히 교환되는 데이터의 형식을 표준화하는 것으로는 체계 간 상호운용성을 충분히 보장할 수 없다. 현재 미국과 NATO에서는 데이터 교환 형식을 보장하는 데에서 더 나아가 의미적 상호운용성(Semantic interoperability)을 달성하기 위해 정보교환모델을 개발·활용하고 있다. 정보교환모델은 공통 어휘(Common vocabulary) 또는 참조 모델(Reference model)로, 체계 간에 정보 교환을 내용적·의미적인 수준에서 보장하기 위해 활용된다. 미국에서 개발·활용하는 정보교환모델은 초기에는 전장상황과 직접 관련된 정보를 교환하는 데에 초점을 맞추었으나, 이후 각 정부 부처 및 민간 기관이 함께 활용할 수 있는 범용적인 형태로 발전되었다. 반면 NATO의 경우 이에 속한 각 국가의 군 간 연합 작전을 수행하는 데에 필요한 개념을 엄격히 표현하는 데에 초점을 맞추었으며, 모델의 범위 역시 지휘통제에 관련된 개념으로 한정되었다. 본 논문에서는 미국과 NATO에서 개발·활용하였던 정보교환모델의 개발 배경, 목적 및 특성을 식별하였고, 이들의 비교분석을 수행하였다. 이를 통해 추후 한국형 정보교환모델 개발 시 시사점을 제시하고자 한다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.