• Title/Summary/Keyword: 데이터베이스 품질관리

Search Result 184, Processing Time 0.028 seconds

A study on a method and system for providing the content of traditional foods based on location (위치기반의 전통식품 콘텐츠 제공 방법 및 시스템 설계)

  • Jang, Dai-Ja;Kim, Sang-Hee;Kim, Hee-Jin;Song, Yu-Jung;Kim, Kee-Yeun;Ji, Hyun-Chul
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2015.05a
    • /
    • pp.261-262
    • /
    • 2015
  • 본 논문은 최근 생물다양성협약 및 전통지식보호 등 기술보호와 정보공유의 투명성 객관성 확보를 위해 사실근거 기반의 전통지식 콘텐츠 제공 방법 및 시스템을 설계하였다. GPS를 활용하여 위치, 날짜, 기상정보 등 사실근거 기반을 확보하고, 이에 맞는 식품, 식재료 정보를 텍스트, 이미지, 음성, 동영상 등 다매체 콘텐츠로 수집하여 데이터베이스화가 가능하도록 하였다. 따라서 본 연구를 통하여 우리나라 생물 자원의 조사 발굴 및 보호가 가능하고, 식재료 또는 식품의 생산, 가공, 저장 등 그 시점의 상태 확인으로 식품(식재료)의 품질관리가 용이하도록 하였다.

  • PDF

Building Data Warehouse System for Weblog Analysis (웹로그 분석을 위한 데이터 웨어하우스 시스템 구축)

  • Lee, Joo-Il;Baek, Kyung-Min;Shin, Joo-Hahn;Lee, Won-Suk
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2010.05a
    • /
    • pp.291-295
    • /
    • 2010
  • 최근 급격한 하드웨어 기술과 데이터베이스 시스템의 발전은 우리 주변에서 발생하는 다양한 분야의 데이터를 자동으로 수집하는 것을 가능하게 하였다. 흔히 데이터 스트림(data stream)이라고 언급되는 끊임없이 생산되는 대용량의 데이터를 효율적으로 처리하여 유용한 정보를 얻어내는 기술은 이미 많은 응용 분야에서 광범위하게 연구되고 있다. 인터넷은 이러한 데이터 스트림을 양산해 내는 주요 원천 중의 하나이다. 인터넷 비즈니스의 활성화와 더불어 웹로그 데이터 스트림은 마케팅, 전략 수립, 고객관리 등 여러 부분에 광범위하게 활용되기 시작했으며, 보다 정확하고 효율적인 분석에 대한 요구사항도 점점 늘어나고 있다. 데이터 웨어하우스(Data Warehouse)는 수집된 데이터를 주제 기반으로 통합하여 시계열 형태로 적재하는 저장소서 유용한 분석이나 의사결정에 많이 사용되어 왔다. 데이터웨어하우스는 데이터를 요약하고 통합 및 정제하는 기능을 제공하여 대용량의 데이터 처리에 적합하고 데이터의 품질을 향상시키기 때문에 데이터 마이닝 분야에서 전처리 과정으로도 많이 이용되어 왔다. 본 논문에서는 웹로그 데이터 스트림에 대한 데이터 웨어하우스를 구축하여 보다 고품질의 유용한 정보를 효율적으로 얻어내는 시스템을 제안한다.

  • PDF

Design of Integrated Portal Service System for Creation of High Quality Scientific and Technologic Academic Information (고품질 과학기술 학술정보 생산을 위한 종합 포털 서비스 체계의 설계)

  • Jeong, Hee-Seok;Park, Jae-Won;Lee, Yang-Sun
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.11
    • /
    • pp.1530-1538
    • /
    • 2009
  • KISTI-ACOMS ver. 2.0 has been distributed to more than 340 academic societies and used by more than 130 academic societies for 4 years since 2005 and still is desired for use by lots of other academic societies. But contrary to the desire and requests for system upgrades of academic societies, ACOMS has not been improved for last 3 years and some academic societies began to use domestic or foreign similar pay online peer review systems. In this paper, a new integrated portal service system is suggested in order to attempt national production cost-saving and quality improvement of academic information by creating and collecting high quality scientific and technologic academic information inexpensively. We come up with methodology of integration and utilization of a personal academic activity portal system interoperable with other services of KISTI, an open citation reference database automatically constructed by authors' activity and a journal evaluation system based on impact factor.

  • PDF

Positional Accuracy of Road and Underground Utility Information (도로기반시설물정보의 위치정확도에 관한 연구)

  • Park, Hong-Gi;Shin, Dong-Bin
    • Journal of Korean Society for Geospatial Information Science
    • /
    • v.10 no.4 s.22
    • /
    • pp.51-60
    • /
    • 2002
  • As the use of GIS becomes more widespread, the quality and source of data is becoming more of a concern among users. But accuracy is a component of quality, and the positional accuracy is a component of total accuracy. If only we consider the positional accuracy, simultaneously collecting technology of location and attribute information, whether it be manually, using conventional surveying method, GPS, or remote sensing, is a practical way of insuring that location and attribute information are correctly correlated. This study analyse the positional accuracy from a view-point of user and supplier, which is the considerations that can ensure quality level and continuously maintain the road and underground utility information. The positional accuracy of road and underground utility information are considered as two categories - expected accuracy of data collection procedure, required accuracy of data usage process. And the project manager must consider the cost/benefit view of data generation in order to determine the surveying method.

  • PDF

Status and Quality Analysis on the Biodiversity Data of East Asian Vascular Plants Mobilized through the Global Biodiversity Information Facility (GBIF) (세계생물다양성정보기구(GBIF)에 출판된 동아시아 관속식물 생물다양성 정보 현황과 자료품질 분석)

  • Chang, Chin-Sung;Kwon, Shin-Young;Kim, Hui
    • Journal of Korean Society of Forest Science
    • /
    • v.110 no.2
    • /
    • pp.179-188
    • /
    • 2021
  • Biodiversity informatics applies information technology methods in organizing, accessing, visualizing, and analyzing primary biodiversity data and quantitative data management through the scientific names of accepted names and synonyms. We reviewed the GBIF data published by China, Japan, Taiwan, and internal institutes, such as NIBR, NIE, and KNA of the Republic of Korea, and assessed data in diverse aspects of data quality using BRAHMS software. Most data from four Asian countries have quality problems with the lack of data consistency and missing information on georeferenced data, collectors, collection date, and place names (gazetteers) or other invalid data forms. The major problem is that biodiversity management institutions in East Asia are using unstructured databases and simple spreadsheet-type data. Owing to the nature of the biodiversity information, if data relationships are not structured, it would be impossible to secure the data integrity of scientific names, human names, geographical names, literature, and ecological information. For data quality, it is essential to build data integrity for database management and training systems for taxonomists who are continuous data managers to correct errors. Thus, publishers in East Asia play an essential role not only in using specialized software to manage biodiversity data but also in developing structured databases and ensuring their integration and value within biodiversity publishing platforms.

Technical Trend of Food Information System (식품정보 시스템 기술동향)

  • Kwon, Dae-Young;Kim, Young-Ok
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2011.05a
    • /
    • pp.295-296
    • /
    • 2011
  • 식품정보 시스템은 농식품 정보를 DB화하여 분류하고, 다양한 식품정보를 효율적으로 관리하여 식품정보 활용에 대한 효과성을 극대화한 시스템이다. 미국, 일본, EU 에서는 정부 주관부처가 식품정보를 포괄적으로 관리하고 있으며, IT기술(데이터베이스, 메타데이터, 웹 기술, 통합검색 기술 등)을 활용하여 대국민, 산업체, 연구기관 등에 올바른 식품정보를 제공하고 있다. 본 논문은 국내 외 식품정보 시스템에서 활용하고 있는 식품정보와 IT기술에 대한 동향을 분석하여 식품정보를 여러 산업분야에서 손쉽게 활용할 수 있는 방안을 제시하고자 하였고, 이를 통해 식품 안정성, 기능성, 품질정보 등 식품정보를 언제, 어디서나 활용하여 식품산업에 대한 에코 시스템을 구축하는 것이다.

  • PDF

Effects of different cooking methods on folate retention in selected mushrooms (다양한 조리법에 따른 버섯류의 엽산 리텐션)

  • Park, Su-Jin;Park, Sun-Hye;Chung, Heajung;Lee, Junsoo;Hyun, Taisun;Chun, Jiyeon
    • Food Science and Preservation
    • /
    • v.24 no.8
    • /
    • pp.1103-1112
    • /
    • 2017
  • This study was performed to investigate the effects of different cooking methods (boiling, roasting, stir-frying, and deep-frying) on folate retention in 6 kinds of mushrooms (Beech-, button-, Juda's ear-, oak-, oyster-, and winter-mushrooms) frequently consumed in Korea. In order to assure reliability of analytical data, trienzyme extraction-L casei method was verified and analytical quality control was also evaluated. Folate contents of mushrooms varied by 6.04-64.82 g/100 g depending on the type of mushrooms. and were significantly affected by cooking methods. Depending on cooking methods, folate contents of mushrooms decreased by 22-48%, 2-31%, and 17-56% for Juda's ear-, oak- and oyster-mushrooms, respectively, while 17-90% of folate was increased in Beech mushroom. Overall, the largest weight loss was found in boiled mushrooms, but the lowest one in deep-fried samples. True folate retention rates considering processing factor were less than 100% for all cooked mushrooms except for Beech samples. Overall, folate loss was the largest by boiling with water but the smallest by deep-frying. Both accuracy and precision of trienzyme extraction-L-casei method were excellent based on a recovery close to 100% and coefficient variations less than 3%. Quality control chart of folate analysis (n=26) obtained during the entire study and an international proficiency test (z-score=-0.5) showed that trienzyme extraction-L casei method is reliable enough for production of national folate database.

A Case Study on Standardization of Data Integration Management in National and International (국내외 데이터 통합관리 표준화 사례 연구)

  • KIM, Dong-Young;CHAE, Hyo-Sok;HWANG, Eui-Ho;LEE, Jeong-Ju
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2015.05a
    • /
    • pp.631-631
    • /
    • 2015
  • 최근 데이터가 전략적 의사결정의 핵심요소로 대두됨에 따라 데이터 통합 및 데이터 품질에 대한 관심이 증대되고 있다. 특히, 데이터 품질을 확보하기 위해 데이터 표준화가 필수적으로 수반되어야 한다. 그러나 데이터 활용에 있어 (1)데이터의 중복 및 불일치 발생, (2)데이터에 대한 의미 파악 지연으로 정보 제공의 적시성 결여, (3)데이터 통합의 어려움, (4)정보시스템 변경 및 유지 보수 곤란 등과 같은 현실적인 문제점들이 정확한 정보를 적시에 사용자에게 전달하는데 장애 요인으로 발생하고 있는 실정이다. 따라서 본 연구에서는 '국토관측센서 기반 수문 및 수재해 정보포털시스템 개발'에 앞서 보다 정확한 데이터 통합관리 및 제공서비스가 가능하도록 국내외 사례연구를 통한 기반을 마련하고자 한다. 데이터 표준화는 시스템별로 산재해 있는 데이터 정보요소에 대한 명칭, 정의, 형식, 규칙에 대한 원칙을 수립하여 이를 전사적으로 적용하는 것을 의미하며, 이러한 데이터 표준화 작업은 데이터의 정확한 의미 파악뿐만 아니라 데이터에 대한 상반된 시각을 조정하는 역할을 수행한다. 기본적으로 데이터 모델 및 데이터베이스에서 정의할 수 있는 모든 오브젝트를 대상으로 하는 것이 이상적이나, 주로 관리해야 될 필요성이 있는 오브젝트만을 대상으로 데이터 표준화를 하는 것이 더욱 효율적으로 작용한다. 본 연구는 국내외 데이터 통합관리 표준화 동향을 제시하였으며, 현업 사용자로부터 데이터 표준과 관련된 요구사항을 수요조사를 통하여 조사함으로써 데이터 표준 대상 후보를 식별하고 개선점을 도출하는데 사용할 기반을 마련하였다. 데이터 표준화가 수행되면 현업 사용자는 정확한 데이터를 사용할 수 있고, 올바른 의사결정을 내릴 수 있을 것으로 판단된다. 앞으로 데이터 표준, 데이터 표준 준수 체크, 데이터 표준 조회 및 활용 등 데이터 표준 관리에서 수작업으로 인해 발생하는 애로사항을 배제하기 위해 자동화에 관한 연구가 지속적으로 추진되어야 할 것으로 사료된다.

  • PDF

Implementation of Quality Evaluation, Error Filtering, Imputation for Traffic Missing Data (교통 데이터에 대한 품질 평가 및 자료 처리 기법의 구현)

  • Cheong, Su-Jeong;Song, Soo-Kyung;Lee, Min-Soo;NamGung, Sung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10c
    • /
    • pp.185-190
    • /
    • 2007
  • 대용량의 자료가 생산됨에 따라 데이터를 효율적으로 저장, 관리, 이용할 수 있는 데이터 웨어하우스의 역할이 중요하게 되었고, 그에 따라 자료 처리 기법의 개발은 필수 과제가 되었다. 품질 평가와 오류 판단, 결측 보정의 자료 처리 과점은 자료의 신뢰도를 판단하고 활용도를 높일 수 있는 과정으로 매우 중요하다. 본 논문에서는 우리나라의 실제 교통상황을 반영하고 평가 기준의 오차를 줄이면서 더욱 간단 명료한 평가 계산식을 도입하여 효율적인 품질평가와 오류판단, 결측 보정의 자료 처리 기법을 제안한다. 또한 오류 판단 기준에 새로운 파라미터론 도입하여 교통 연구자의 요구 사항을 반영할 수 있게 하였다. 결측 보정 과정은 여러 기법을 연구하고 기존의 결측 보정 기법에 입력 변수를 추가하여 실제 대용량의 교통 자료에 적용하였다. 그리고 교통 자료가 저장되는 데이터베이스에 직접 접근하여 결측 보정과정을 수행하도록 PL/SQL로 구현하였으며, 이를 통해 교통 연구자에게 쉽고 다양한 방법으로 결측 보정을 수행하고 그 결과를 이용하여 다양한 교통 정보를 가공할 수 있는 환경을 제공하였다.

  • PDF

A Data Migration Model and Case Study for Building Management System of Science and Technology Contents (과학기술정보콘텐츠 통합관리시스템 구축을 위한 데이터 마이그레이션 모델 수립 및 적용 사례)

  • Shin, Sung-Ho;Lee, Min-Ho;Lee, Won-Goo;Yoon, Hwa-Mook;Sung, Won-Kyung;Kim, Kwang-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.11
    • /
    • pp.123-135
    • /
    • 2011
  • The domestic market of database in Korea is estimated to be over 3.663 trillion won. The data migration is getting to be more important along with the continuous growth of the database industry. g-CRM and private recommending function are examples of the service that can be given through coupling among customer database, product database, geographic information database, and others. The core infrastructure is also the database which is integrated, perfect, and reliable. There are not enough researches on efficient way of data migration and integrating process and investigation of migrated data though trends of database in IT environment as above. In connection with this issue, we have made a model for data migration on scientific and technological contents and suggest the result of data migration process adapting that model. In addition, we verified migration's exhaustiveness, migration's consistency, and migration's coherence for investigation of migrated data and database. From the result, we conclude data migration based on proper model has a significant influence on the database consistency and the data values correctness and is essential to maintain high qualified database.