• 제목/요약/키워드: Data Archive

검색결과 300건 처리시간 0.024초

KJJVC를 위한 VERA2000 고속재생기 도입과 시험운영

  • 오세진;염재환;노덕규;박선엽
    • 천문학회보
    • /
    • 제35권1호
    • /
    • pp.44.1-44.1
    • /
    • 2010
  • 한국천문연구원에서는 2009년 1단계 한일공동VLBI상관기(Korea-Japan Joint VLBI Correlator, KJJVC)의 개발과 설치를 완료하였다. KJJVC는 한국우주전파관측망(Korean VLBI Network, KVN), KVN과 일본 내의 VLBI 관측망을 포함하는 한일공동VLBI관측망(Korea-Japan Joint VLBI Network, KJJVN), 그리고 한중일의 VLBI관측망인 동아시아 VLBI관측망(East Asian VLBI Network, EAVN)으로 관측한 VLBI 데이터를 상관처리할 수 있도록 설계 제작되었다. 그리고 고속재생기, 데이터 동기재생처리시스템(Raw VLBI Data Buffer, RVDB), VLBI상관서브시스템(VLBI Correlation Subsystem, VCS), 데이터 아카이브 시스템(Peta-scale Epoch Data Archive, PEDA)로 구성된다. 특히 일본국립천문대 VERA에서는 테이프 형태의 DIR2000 고속기록기를 사용하고 있는데, DIR2000의 제품단종으로 인해 이 데이터를 VCS에 재생하기 위해 DIR1000을 개량한 VERA2000 고속재생기를 개발하였다. 즉, VSI 형태의 데이터를 1Gbps 속도로 재생만 하기 위해 기존의 시스템을 개량하였으며, 2009년 10월에 VLBI상관기실에 설치되었다. 본 논문에서는 VERA2000 시스템의 구성 및 개발, 시험운영 등에 대해 간략히 소개하고자 한다.

  • PDF

네트워크 기반 자동화 변전소에서 SOAP을 이용한 IED간 정보교환기술 연구 (A Study on the Information Exchange Technology Between IEDs Using SOAP in Network Based Substation Automation System)

  • 고윤석
    • 대한전기학회논문지:전력기술부문A
    • /
    • 제55권9호
    • /
    • pp.376-383
    • /
    • 2006
  • In this paper, autonomous information exchange methodology is studied between IEDs using SOAP protocol based on XML and PtP communication to archive the safety and reliability of large-scale system operation. The SOAP protocol has the advantages in the independency Problem for operating systems, using language, platforms and the security problem because it is XML-based RPC protocol. Inference-based solution of the IED is designed as rule-based solution so that the IED internal status, the system status or the faulted zone can be inferred autonomously using the internal data as well as information data obtained from free information exchange among other IEDS, Also, it is designed so that the inference results and the operation information are transmitted to the above SCADA system, and determined autonomously whether the commands from the SCADA are executed or not. Finally, The inference-based solution of IED and information exchange system among IEDS is implemented using MS Visual C++ MFC, MS SOAP and MS XML. Availability and accuracy of the proposed methodology and the design is verified from diversity simulation reviews for typical distribution substation.

소화장(昭和莊)의 현황과 평면변용 특성 연구 (A Study on Sowhajang's Present Condition and Plan Transformation Characteristics)

  • 정미정;유재우;장유경
    • 한국주거학회논문집
    • /
    • 제22권3호
    • /
    • pp.123-134
    • /
    • 2011
  • 'Sohawjang' is the first apartment house built in Busan the modern period, 1944. 'Sohawjang' needs to be apprised its value as an very important object of study with architectural and dwelling historic meaning because multi-family houses built in Japanese Rule Era that now exist in Korea are very rare. Thus, this study attempted to leave records to archive by conducting face to face interviews and surveying on 'Sohawjang' which is seriously in danger of extinction and its original form damage as the first step. Especially, around Korea's Liberation, this study tried to extract transformation characteristics of residential space and cultural differences appeared on differences of occupants having different nationality. Through these results, this study attempted to examine the era of apartment house and transformation characteristics and values of modern dwelling historic dimension according to changes of users appeared in Busan modern period. Through this study, it offers basic data about introduction and transition processes of an apartment house in Korea. It has an meaning of suggestion reference data for original form preservations or regenerations.

Are There Any Old Globular Clusters in the Starburst Galaxy M82?

  • 임성순;황나래;이명균
    • 천문학회보
    • /
    • 제36권1호
    • /
    • pp.63.1-63.1
    • /
    • 2011
  • M82 is a famous starburst galaxy which is dominated by young stellar populations and ISM. Some previous studies indicated the existence of intermediate-age and old stellar population in this galaxy, but little is known about them. We present a study of old globular clusters in M82 using the Hubble Space Telescope archive data. From the cluster survey of M82 we found 650 star clusters. We divided them into disk and halo star clusters according to their position. The color-color diagrams show that all 19 halo star clusters are old globular clusters. The disk sample may include both reddened young clusters and geniune old globular clusters. We estimated their ages using spectral energy distribution fit method with six filter data covering from ultraviolet (F330W) to infrared (F160W), and found that 30 of them are older than 3 Gyr. These are considered to be disk globular clusters. Twelve of the halo globular clusters are found to be partially resolved into their member stars. The (B-V) color range of the halo globular clusters is consistent with that of the Milky Way globular clusters, but most of M82 globular clusters are bluer than (B-V)=0.7. The existence of these old globular clusters suggests that the starburst galaxy M82 has an old stellar halo that may be as old as the Milky Way halo.

  • PDF

HBase based Business Process Event Log Schema Design of Hadoop Framework

  • Ham, Seonghun;Ahn, Hyun;Kim, Kwanghoon Pio
    • 인터넷정보학회논문지
    • /
    • 제20권5호
    • /
    • pp.49-55
    • /
    • 2019
  • Organizations design and operate business process models to achieve their goals efficiently and systematically. With the advancement of IT technology, the number of items that computer systems can participate in and the process becomes huge and complicated. This phenomenon created a more complex and subdivide flow of business process.The process instances that contain workcase and events are larger and have more data. This is an essential resource for process mining and is used directly in model discovery, analysis, and improvement of processes. This event log is getting bigger and broader, which leads to problems such as capacity management and I / O load in management of existing row level program or management through a relational database. In this paper, as the event log becomes big data, we have found the problem of management limit based on the existing original file or relational database. Design and apply schemes to archive and analyze large event logs through Hadoop, an open source distributed file system, and HBase, a NoSQL database system.

KPDS user interface and science data transfer sequence for scientists and public users in Korea Lunar Exploration Program

  • Kim, Joo Hyeon
    • 천문학회보
    • /
    • 제46권1호
    • /
    • pp.59.2-59.2
    • /
    • 2021
  • 현재 우리나라는 달탐사 개발 사업을 통하여 2022년 8월 발사를 목표로 달 궤도선인 KPLO와 과학임무 및 기술검증 임무를 수행하게 될 임무 탑재체, 임무 수행을 위한 각종 소프트웨어의 개발, 궤도/궤적의 설계 등 일련의 개발 과정을 순조롭게 수행하고 있다. 또한 달 궤도선인 KPLO와 이들 탑재체에 대한 운영과 관제를 수행하는 KPLO 심우주 지상국도 일정에 따라 개발 막바지에 접어들고 있다. 특히 KPLO 심우주 지상국에는 우리나라 대학과 정부출연연구소에 의해서 개발되는 과학탑재체 4기가 달 궤도에서 과학임무를 수행하여 얻게되는 달 탐사 과학자료, 즉, 과학임무자료를 달 탐사에 직접 참여하는 과학자들뿐만 아니라 일반인들도 교육 및 연구에 활용할 수 있도록 달 탐사 과학자료의 저장, 공개, 관리를 위한 Archive system인 KARI Planetary Data System(KPDS)도 함께 개발되고 있다. KPDS는 전문 연구자와 일반인들이 별도의 교육없이 인터넷을 통하여 쉽게 접속하여 KPLO의 과학탑재체가 획득한 달 탐사 과학자료를 검색하여 내려받아 사용할 수 있도록 서비스를 제공할 예정이다. 본 논문에서는 과학탑재체 개발기관 소속의 연구자가 달 탐사 과학자료에 대한 검보정 처리와 과학적 분석을 수행하기 위해서 텔레메트리 형태의 원본형태의 과학자료를 KPDS로부터 다운로드 받는 과정과 검보정 처리가 된 과학자료를 일반 사용자들이 내려 받아 사용할 수 있도록 과학자료가 공개되기까지 일련의 과정을 설명하고, 연구자 및 일반사용자가 직접 접하게 되는 KPDS의 주요한 사용자 환경에 대해서 설명한다.

  • PDF

아파치 엘라스틱서치 기반 로그스태시를 이용한 보안로그 분석시스템 (A Security Log Analysis System using Logstash based on Apache Elasticsearch)

  • 이봉환;양동민
    • 한국정보통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.382-389
    • /
    • 2018
  • 최근 사이버 공격은 다양한 정보시스템에 심각한 피해를 주고 있다. 로그 데이터 분석은 이러한 문제를 해결하는 하나의 방법이다. 보안 로그 분석시스템은 로그 데이터 정보를 수집, 저장, 분석하여 보안 위험에 적절히 대처할 수 있게 한다. 본 논문에서는 보안 로그 분석을 위하여 분산 검색 엔진으로 사용되고 있는 Elasticsearch와 다양한 종류의 로그 데이터를 수집하고 가공 및 처리할 수 있게 하는 Logstash를 사용하여 보안 로그 분석시스템을 설계하고 구현하였다. 분석한 로그 데이터는 Kibana를 이용하여 로그 통계 및 검색 리포트를 생성하고 그 결과를 시각화할 수 있게 하였다. 구현한 검색엔진 기반 보안 로그 분석시스템과 기존의 Flume 로그 수집기, Flume HDFS 싱크 및 HBase를 사용하여 구현한 보안 로그 분석시스템의 성능을 비교 분석하였다. 실험 결과 Elasticsearch 기반의 로그 분석시스템을 사용할 경우 하둡 기반의 로그 분석시스템에 비하여 데이터베이스 쿼리 처리시간 및 로그 데이터 분석 시간을 현저하게 줄일 수 있음을 보였다.

Zephyr 커널에서 고정 시간 동기식 IPC 구현 (Fixed Time Synchronous IPC in Zephyr Kernel)

  • 정주영;김은영;신동하
    • 대한임베디드공학회논문지
    • /
    • 제12권4호
    • /
    • pp.205-212
    • /
    • 2017
  • Linux Foundation has announced a real-time kernel, called Zephyr, for IoT applications recently. Zephyr kernel provides synchronous and asynchronous IPC for data communication between threads. Synchronous IPC is useful for programming multi-threads that need to be executed synchronously, since the sender thread is blocked until the data is delivered to the receiver thread and the completion of data transfer can be known to two threads. In general, 'IPC execution time' is defined as the time duration between the sender thread sends data and the receiver thread receives the data sent. Especially, it is important that 'IPC execution time' in the synchronous IPC should be fixed in real-time kernel like Zephyr. However, we have found that the execution time of the synchronous IPC in Zephyr kernel increases in proportion to the number of threads executing in the kernel. In this paper, we propose a method to implement a fixed time synchronous IPC in Zephyr kernel using Direct Thread Switching(DTS) technique. Using the technique, the receiver thread executes directly after the sender thread sends a data during the remaining time slice of the sender thread and we can archive a fixed IPC execution time even when the number of threads executing in the kernel increases. In this paper, we implemented synchronous IPC using DTS in the Zephyr kernel and found the IPC execution time of the IPC is always 389 cycle that is relatively small and fixed.

Efficient Verifiable Top-k Queries in Two-tiered Wireless Sensor Networks

  • Dai, Hua;Yang, Geng;Huang, Haiping;Xiao, Fu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권6호
    • /
    • pp.2111-2131
    • /
    • 2015
  • Tiered wireless sensor network is a network model of flexibility and robustness, which consists of the traditional resource-limited sensor nodes and the resource-abundant storage nodes. In such architecture, collected data from the sensor nodes are periodically submitted to the nearby storage nodes for archive purpose. When a query is requested, storage nodes also process the query and return qualified data as the result to the base station. The role of the storage nodes leads to an attack prone situation and leaves them more vulnerable in a hostile environment. If any of them is compromised, fake data may be injected into and/or qualified data may be discarded. And the base station would receive incorrect answers incurring malfunction to applications. In this paper, an efficient verifiable top-k query processing scheme called EVTQ is proposed, which is capable of verifying the authentication and completeness of the results. Collected data items with the embedded information of ordering and adjacent relationship through a hashed message authentication coding function, which serves as a validation code, are submitted from the sensor nodes to the storage nodes. Any injected or incomplete data in the returned result from a corresponded storage node is detected by the validation code at the base station. For saving communication cost, two optimized solutions that fuse and compress validation codes are presented. Experiments on communication cost show the proposed method is more efficiency than previous works.

디지털 아카이브의 위키데이터 활용방안 연구 (A Study on Wikidata Utilization for Digital Archives)

  • 한상은;박희진
    • 한국기록관리학회지
    • /
    • 제22권1호
    • /
    • pp.201-217
    • /
    • 2022
  • 본 연구의 목적은 위키데이터를 활용하여 디지털 아카이브에서 소장하고 있는 기록 자원에 대한 접근을 높이고 구축한 데이터를 공유, 재사용할 수 있는 방안을 모색하는 데 있다. 이를 위해 먼저 기록학 분야에서 논의되고 있는 디지털 환경에서 기록 자원의 기술(description) 표준과 디지털 아카이브의 데이터 관리 및 공유와 관련된 연구들을 통해 국내외 디지털 아카이브의 기록 데이터의 현황을 파악하였다. 위키데이터의 구조와 특성을 파악하고 위키데이터를 적용한 해외 디지털 아카이브의 사례들을 조사하였다. 사례 분석을 통해 위키데이터 기반의 기록 데이터 개방, 공유와 재사용을 위한 시사점을 도출하고 위키데이터를 디지털 아카이브에 적용할 때 고려할 사항을 제안하였다. 본 연구의 결과는 디지털 아카이브 구축에 있어서 최근 데이터 개방, 공유 관련 기술의 동향을 이해하고 실제 아카이브 현장에서 위키데이터를 활용한 서비스 개발의 기초자료로 활용할 수 있을 것이다.