• Title/Summary/Keyword: 데이터 기반 의사결정

Search Result 786, Processing Time 0.025 seconds

Design of Contents Curation System Based on Incremental Learning Technology for Big Data Mining (빅데이터 마이닝을 위한 점진적 학습 기반 콘텐츠 큐레이션 시스템 설계)

  • Min, Byung-Won
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2017.05a
    • /
    • pp.421-422
    • /
    • 2017
  • 콘텐츠 큐레이션 서비스를 위해서 대용량 데이터를 학습하는 과정에서 발생하는 메모리부족 문제, 학습소요시간 문제 등을 해결하기 위한 "대용량 문서학습을 위한 동적학습 파이프라인 생성기술 중 빅데이터 마이닝을 위한 점진적 학습 모델" 기술이 필요하며, 본 논문에서 제안한 콘텐츠 큐레이션 서비스는 온라인상의 수많은 콘텐츠들 중 개인의 주관이나 관점에 따라 관련 콘텐츠들을 수집, 정리하고 편집하여 이용자와 관련이 있거나 좋아할 만한 콘텐츠를 제공하는 서비스이다. 큐레이션 서비스에서는 개인비서, 금융 분야의 투자, 자율주행, 저널리즘, 효율적인 업무 지시/감독, 제조업의 자동화 공정, 교육, 콘텐츠 유통, 학술정보 등에서 컴퓨터가 방대한 양의 데이터로 부터 학습하여 사람의 일을 대신 처리하거나 의사결정에 도움을 줌으로써 업무의 효율을 높여주는 서비스 산업에 활용이 가능하다.

  • PDF

Data-driven Co-Design Process for New Product Development: A Case Study on Smart Heating Jacket (신제품 개발을 위한 데이터 기반 공동 디자인 프로세스: 스마트 난방복 사례 연구)

  • Leem, Sooyeon;Lee, Sang Won
    • Journal of the Korea Convergence Society
    • /
    • v.12 no.1
    • /
    • pp.133-141
    • /
    • 2021
  • This research suggests a design process that effectively complements the human-centered design through an objective data-driven approach. The subjective human-centered design process can often lack objectivity and can be supplemented by the data-driven approaches to effectively discover hidden user needs. This research combines the data mining analysis with co-design process and verifies its applicability through the case study on the smart heating jacket. In the data mining process, the clustering can group the users which is the basis for selecting the target groups and the decision tree analysis primarily identifies the important user perception attributes and values. The broad point of view based on the data analysis is modified through the co-design process which is the deeper human-centered design process by using the developed workbook. In the co-design process, the journey maps, needs and pain points, ideas, values for the target user groups are identified and finalized. They can become the basis for starting new product development.

Multi-model Typhoon Simulation for Big Data Analysis and Prediction (빅데이터 분석 및 예측을 위한 멀티모델 태풍 시뮬레이션)

  • Kang, Ji-Sun;Yuk, Jin-Hee;Joh, Minsu
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2017.05a
    • /
    • pp.291-292
    • /
    • 2017
  • 한국과학기술정보연구원 융합기술연구본부 재난대응HPC연구센터에서는 초고성능컴퓨팅 기반의 풍수해 예측 및 피해 정보 생산기술을 연구개발하여 재난 재해에 대한 국가현안 대응 의사결정지원 시스템을 구축 중에 있다. HPC 기반의 풍수해 예측 시스템과 빅데이터 분석 기반의 피해 예측 시스템에 대한 연구를 독자적으로 진행하는 가운데, 최근 여러 분야에 적용되고 있는 빅데이터 분석 기술을 HPC 기반의 풍수해 예측 시스템에 적목시켜 더 정확하고 신속한 풍수해 예측 정보 생산에 기여하고자 한다. 본 연구는 빅데이터 분석을 위한 학습 데이터 생산을 목적으로 HPC 기반 태풍 예측의 주요 기상 인자들을 조정하여 서로 다른 성능의 예측 모델을 구축하고, 각 모델 별 태풍 시뮬레이션의 성능을 진단하였다. 향후 빅데이터 분석을 통한 예측 성능의 검증을 위해 HPC 기반 풍수해 예측 및 검증 데이터를 최대한 생산하고자 한다.

  • PDF

Data Cube Generation Method Using Hash Table in Spatial Data Warehouse (공간 데이터 웨어하우스에서 해쉬 테이블을 이용한 데이터큐브의 생성 기법)

  • Li, Yan;Kim, Hyung-Sun;You, Byeong-Seob;Lee, Jae-Dong;Bae, Hae-Young
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.11
    • /
    • pp.1381-1394
    • /
    • 2006
  • Generation methods of data cube have been studied for many years in data warehouse which supports decision making using stored data. There are two previous studies, one is multi-way array algorithm and the other is H-cubing algorithm which is based on the hyper-tree. The multi-way array algorithm stores all aggregation data in arrays, so if the base data is increased, the size of memory is also grow. The H-cubing algorithm which is based on the hyper-tree stores all tuples in one tree so the construction cost is increased. In this paper, we present an efficient data cube generation method based on hash table using weight mapping table and record hash table. Because the proposed method uses a hash table, the generation cost of data cube is decreased and the memory usage is also decreased. In the performance study, we shows that the proposed method provides faster search operation time and make data cube generation operate more efficiently.

  • PDF

GML Data Integration Method for Load Processing of Spatial Data Warehouse (공간 데이터 웨어하우스에서 GML 데이터의 효율적인 적재를 위한 데이터 통합 기법)

  • Jeon Byung-Yun;Lee Dong-Wook;You Byeong-Seob;Bae Hae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.27-30
    • /
    • 2006
  • GIS 분야에서 데이터 교환의 표준으로 OGC(Open Geospatial Consortium)에서 GML(Geography Markup Language)이 제안되어 웹 어플리케이션이나 공간 데이터 교환에서 사용이 일반화 되어가고 있다. 또한, 공간 데이터를 효과적으로 수집하여 의사결정을 지원하기 위한 시스템인 공간 데이터 웨어하우스에서도 GML 데이터를 추출하여 소스 데이터로 활용하는 것이 요구되고 있다. 하지만 GML 은 반구조형식(semi-structured)의 데이터 형식을 가진다. 따라서 기존 구조적인 데이터와는 추출하는 방식이 다르므로 GML 의 특징에 맞는 공간 데이터 추출이 수행되어야 한다. 본 논문에서는 공간 데이터 웨어하우스에서 GML 기반의 공간 데이터 소스를 추출할 때, 중복되는 공간 객체를 하나의 표현으로 통합하여 효율적으로 적재하는 기법을 제안한다. 이는 GQuery를 이용하여 GML 데이터를 추출한 후, GML 스키마를 메타데이터에서 관리하는 스키마 정보와 비교하여 공간 데이터 웨어하우스에 통합된 공간 데이터를 제공하는 기법이다. 성능평가에서는 기존의 GML 데이터를 추출하는 기법과 제안기법과의 비교를 통하여 제안 기법의 기존 기법에 비해 평균적으로 약 9.95%의 성능향상을 보였다.

  • PDF

Review of National Policy Cases Using Horizon Scanning (호라이즌 스캐닝을 활용한 국가 정책 사례 고찰)

  • Lee, Eun-Ji;Lee, Hye-Jin;Ihm, Sun-Young;Park, Young-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.602-604
    • /
    • 2019
  • 최근, 데이터가 새로운 기회이자 도전의 기반으로 인식됨에 따라 공공정책 및 정부의사결정에도 데이터를 기반으로 하는 체계적인 접근의 필요성이 증대되고 있다. 다양한 나라에서는 위기에 대응하기 위한 체계적인 정책과 근거 있는 미래전략을 수립하는데 빅데이터를 수집 및 분석하여 이를 적극 활용 하고있다. 본 논문에서는 대표적인 선진국인 싱가포르, 영국, 네덜란드 3국을 중심으로 수집된 데이터를 기반으로 미래 정책 예측하기 위한 호라이즌 스캐닝을 설명하고 이를 정책 수립에 활용한 사례를 비교하고자 한다.

An Efficient Angular Space Partitioning Based Skyline Query Processing Using Sampling-Based Pruning (데이터 샘플링 기반 프루닝 기법을 도입한 효율적인 각도 기반 공간 분할 병렬 스카이라인 질의 처리 기법)

  • Choi, Woosung;Kim, Minseok;Diana, Gromyko;Chung, Jaehwa;Jung, Soonyong
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.6 no.1
    • /
    • pp.1-8
    • /
    • 2017
  • Given a multi-dimensional dataset of tuples, a skyline query returns a subset of tuples which are not 'dominated' by any other tuples. Skyline query is very useful in Big data analysis since it filters out uninteresting items. Much interest was devoted to the MapReduce-based parallel processing of skyline queries in large-scale distributed environment. There are three requirements to improve parallelism in MapReduced-based algorithms: (1) workload should be well balanced (2) avoid redundant computations (3) Optimize network communication cost. In this paper, we introduce MR-SEAP (MapReduce sample Skyline object Equality Angular Partitioning), an efficient angular space partitioning based skyline query processing using sampling-based pruning, which satisfies requirements above. We conduct an extensive experiment to evaluate MR-SEAP.

Rough Entropy-based Knowledge Reduction using Rough Set Theory (러프집합 이론을 이용한 러프 엔트로피 기반 지식감축)

  • Park, In-Kyoo
    • Journal of Digital Convergence
    • /
    • v.12 no.6
    • /
    • pp.223-229
    • /
    • 2014
  • In an attempt to retrieve useful information for an efficient decision in the large knowledge system, it is generally necessary and important for a refined feature selection. Rough set has difficulty in generating optimal reducts and classifying boundary objects. In this paper, we propose quick reduction algorithm generating optimal features by rough entropy analysis for condition and decision attributes to improve these restrictions. We define a new conditional information entropy for efficient feature extraction and describe procedure of feature selection to classify the significance of features. Through the simulation of 5 datasets from UCI storage, we compare our feature selection approach based on rough set theory with the other selection theories. As the result, our modeling method is more efficient than the previous theories in classification accuracy for feature selection.

Reduction of Approximate Rule based on Probabilistic Rough sets (확률적 러프 집합에 기반한 근사 규칙의 간결화)

  • Kwon, Eun-Ah;Kim, Hong-Gi
    • The KIPS Transactions:PartD
    • /
    • v.8D no.3
    • /
    • pp.203-210
    • /
    • 2001
  • These days data is being collected and accumulated in a wide variety of fields. Stored data itself is to be an information system which helps us to make decisions. An information system includes many kinds of necessary and unnecessary attribute. So many algorithms have been developed for finding useful patterns from the data and reasoning approximately new objects. We are interested in the simple and understandable rules that can represent useful patterns. In this paper we propose an algorithm which can reduce the information in the system to a minimum, based on a probabilistic rough set theory. The proposed algorithm uses a value that tolerates accuracy of classification. The tolerant value helps minimizing the necessary attribute which is needed to reason a new object by reducing conditional attributes. It has the advantage that it reduces the time of generalizing rules. We experiment a proposed algorithm with the IRIS data and Wisconsin Breast Cancer data. The experiment results show that this algorithm retrieves a small reduct, and minimizes the size of the rule under the tolerant classification rate.

  • PDF

증거기반 창업교육: 대학 교재 분석

  • Han, Ji-Eun;Kim, Na-Yeong;Bae, Tae-Jun
    • 한국벤처창업학회:학술대회논문집
    • /
    • 2021.11a
    • /
    • pp.57-61
    • /
    • 2021
  • '증거기반 교육'은 개인적 경험이나 성공 사례, 그리고 전통적인 속설보다는 과학적 연구결과와 근거가 중심이 되는 교육이다. 증거기반 창업 교육은 기존 속설과 믿음, 단편적 성공 사례로 인해 고착된 인지 편향을 완화시켜 중립적인 시각을 견지할 수 있으며, 직관과 경험을 넘어 데이터와 연구 결과에 의해 의사결정을 하는 분석적 자질을 연마하는데 기여한다. 본 논문은 현재 국내의 증기기반 창업교육의 현주소를 명확히 파악하기 위하여 1999년부터 2021년 출판된 49권의 창업교육 대학 교재를 분석하였다. 구체적으로 모든 도서의 내용을 1)창업기초, 2)비즈니스모델, 3)마케팅계획, 4)재무계획, 5)운영계획, 6)창업유형, 7)절차 및 제도의 각 7가지 기준으로 구분하고, 각각 사례, 단순통계, 변인 통계, 선행 연구의 비중을 분석하였다. 분석결과 증거의 핵심인 선행연구의 비중은 전체 교재의 총 분량 중 11.25%를 차지하는 것으로 나타났다. 이는 Charlier(2011)의 MBA 교과목 대상으로 조사한 결과와 유사한 값이다.

  • PDF