• 제목/요약/키워드: analysis data

검색결과 85,083건 처리시간 0.087초

빅데이터 분석 방법을 이용한 중학교 정보 교과서 핵심 개념 분석 (Analysis of the Core Concepts of Middle School Informatics Textbook Using Big Data Analysis Techniques)

  • 윤대웅;최현종
    • 창의정보문화연구
    • /
    • 제5권2호
    • /
    • pp.157-164
    • /
    • 2019
  • 빅데이터는 최근 우리 사회에 다양한 분야에서 활용하고 발전하고 있는 분야이다. 정치, 경제, 사회의 각 분야에서 많은 자료를 분석하여 자료에 숨어 있는 다양한 의미를 파악하는 빅데이터 분석 기법이 자주 활용되고 있다. 하지만 교육이라는 부분에 있어서 빅데이터는 단순한 분석 등에 활용하기는 하지만 교육과정과 방향에 대한 분석은 아직 미비한 실정이다. 이에 본 연구에서는 빅데이터 분석 기법을 활용하여 중학교 정보 교과서의 핵심 개념을 파악하여 분석하고자 한다. 정보 교과서 분석을 위한 빅데이터 분석법은 텍스트 마이닝을 사용하였다. 이 프로그램을 활용하여 파악된 중학교 정보 교과서의 핵심 개념들을 통해 교과서에서 강조하고자 하는 개념을 확인할 수 있었고, 교육 분야에서도 빅데이터 활용 가능성을 확인할 수 있었다.

6 시그마 위한 대용량 공정데이터 분석에 관한 연구 (A Study on Analysis of Superlarge Manufacturing Process Data for Six Sigma)

  • 박재홍;변재현
    • 한국경영과학회:학술대회논문집
    • /
    • 한국경영과학회 2001년도 추계학술대회 논문집
    • /
    • pp.411-415
    • /
    • 2001
  • Advances in computer and sensor technology have made it possible to obtain superlarge manufacturing process data in real time, letting us to extract meaningful information from these superlarge data sets. We propose a systematic data analysis procedure which field engineers can apply easily to manufacture quality products. The procedure consists of data cleaning and data analysis stages. Data cleaning stage is to construct a database suitable for statistical analysis from the original superlarge manufacturing process data. In the data analysis stage, we suggest a graphical easy-to-implement approach to extract practical information from the cleaned database. This study will help manufacturing companies to achieve six sigma quality.

  • PDF

Investigating the underlying structure of particulate matter concentrations: a functional exploratory data analysis study using California monitoring data

  • Montoya, Eduardo L.
    • Communications for Statistical Applications and Methods
    • /
    • 제25권6호
    • /
    • pp.619-631
    • /
    • 2018
  • Functional data analysis continues to attract interest because advances in technology across many fields have increasingly permitted measurements to be made from continuous processes on a discretized scale. Particulate matter is among the most harmful air pollutants affecting public health and the environment, and levels of PM10 (particles less than 10 micrometers in diameter) for regions of California remain among the highest in the United States. The relatively high frequency of particulate matter sampling enables us to regard the data as functional data. In this work, we investigate the dominant modes of variation of PM10 using functional data analysis methodologies. Our analysis provides insight into the underlying data structure of PM10, and it captures the size and temporal variation of this underlying data structure. In addition, our study shows that certain aspects of size and temporal variation of the underlying PM10 structure are associated with changes in large-scale climate indices that quantify variations of sea surface temperature and atmospheric circulation patterns.

Matlab을 활용한 빅데이터 기반 분석 시스템 연구 (Research on the Analysis System based on the Big Data for Matlab)

  • 주문일;김희철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 추계학술대회
    • /
    • pp.96-98
    • /
    • 2016
  • 최근 급속한 데이터의 생성으로 인하여 빅데이터 기술이 발전하고 있으며, 빅데이터를 분석하기 위한 다양한 빅데이터 분석 툴이 개발되어지고 있다. 대표적인 빅데이터 기반의 분석 툴은 R 프로그램, Hive, Tajo 등 다양한 분석 툴이 있다. 그러나, Matlab을 활용한 데이터 분석과 이를 위한 알고리즘 개발이 여전히 보편적이며, 빅데이터 분석에서도 Matlab이 광범위하게 사용되고 있다. 본 논문은 생체신호를 분석하는 Matlab을 활용한 빅데이터 기반 분석 시스템을 연구하고자 한다.

  • PDF

빅데이터 분석 교육의 문제점과 개선 방안 -학생 과제 보고서를 중심으로 (Problems of Big Data Analysis Education and Their Solutions)

  • 최도식
    • 한국융합학회논문지
    • /
    • 제8권12호
    • /
    • pp.265-274
    • /
    • 2017
  • 본 논문은 빅데이터 분석 교육의 문제점을 고찰해 그 개선 방안을 제시한다. 빅데이터의 특성은 V3에서 V5로 진화하고 있다. 이에 빅데이터 분석 교육도 V5를 감안한 데이터 분석 교육이 되어야 한다. 작금 불확실성의 증대는 데이터 분석의 리스크를 증가시키기에 내적 외적 구조화/비구조화 데이터를 비롯해 교란 요인마저 분석할 때 데이터의 신뢰성은 증가될 수 있다. 그리고 평판분석을 활용할 때 범하기 쉬운 오류가 가변성과 불확실성에 대한 상황 인식이다. 가변성의 측면을 고려해, 다양한 변수와 옵션에 의한 불확실성의 상황을 인식하고 대비한 데이터 분석이 이뤄질 때 데이터에 대한 신뢰성과 정확성은 증가할 수 있다. 사회관계망 분석에서 학생들과 일반 연구자들이 주로 활용하는 것이 텍스톰과 노드엑셀의 노드 분석이다. 사화관계망 분석은 매개중심성에 의한 상황 분석을 통해 다크 데이터를 찾아 이상 현상을 감지하고 현 상황을 분석하여 유용한 의미를 얻고 미래를 예측할 수 있어야 한다.

A Study on the Meaning of The First Slam Dunk Based on Text Mining and Semantic Network Analysis

  • Kyung-Won Byun
    • International journal of advanced smart convergence
    • /
    • 제12권1호
    • /
    • pp.164-172
    • /
    • 2023
  • In this study, we identify the recognition of 'The First Slam Dunk', which is gaining popularity as a sports-based cartoon through big data analysis of social media channels, and provide basic data for the development and development of various contents in the sports industry. Social media channels collected detailed social big data from news provided on Naver and Google sites. Data were collected from January 1, 2023 to February 15, 2023, referring to the release date of 'The First Slam Dunk' in Korea. The collected data were 2,106 Naver news data, and 1,019 Google news data were collected. TF and TF-IDF were analyzed through text mining for these data. Through this, semantic network analysis was conducted for 60 keywords. Big data analysis programs such as Textom and UCINET were used for social big data analysis, and NetDraw was used for visualization. As a result of the study, the keyword with the high frequency in relation to the subject in consideration of TF and TF-IDF appeared 4,079 times as 'The First Slam Dunk' was the keyword with the high frequency among the frequent keywords. Next are 'Slam Dunk', 'Movie', 'Premiere', 'Animation', 'Audience', and 'Box-Office'. Based on these results, 60 high-frequency appearing keywords were extracted. After that, semantic metrics and centrality analysis were conducted. Finally, a total of 6 clusters(competing movie, cartoon, passion, premiere, attention, Box-Office) were formed through CONCOR analysis. Based on this analysis of the semantic network of 'The First Slam Dunk', basic data on the development plan of sports content were provided.

빅데이터의 효과적인 처리 및 활용을 위한 클라이언트-서버 모델 설계 (Design of Client-Server Model For Effective Processing and Utilization of Bigdata)

  • 박대서;김화종
    • 지능정보연구
    • /
    • 제22권4호
    • /
    • pp.109-122
    • /
    • 2016
  • 최근 빅데이터 분석은 기업과 전문가뿐만 아니라 개인이나 비전문가들도 큰 관심을 갖는 분야로 발전하였다. 그에 따라 현재 공개된 데이터 또는 직접 수집한 이터를 분석하여 마케팅, 사회적 문제 해결 등에 활용되고 있다. 국내에서도 다양한 기업들과 개인이 빅데이터 분석에 도전하고 있지만 빅데이터 공개의 제한과 수집의 어려움으로 분석 초기 단계에서부터 어려움을 겪고 있다. 본 논문에서는 빅데이터 공유를 방해하는 개인정보, 빅트래픽 등의 요소들에 대한 기존 연구와 사례들을 살펴보고 정책기반의 해결책이 아닌 시스템을 통해서 빅데이터 공유 제한 문제를 해결 할 수 있는 클라이언트-서버 모델을 이용해 빅데이터를 공개 및 사용 할 때 발생하는 문제점들을 해소하고 공유와 분석 활성화를 도울 수 있는 방안에 대해 기술한다. 클라이언트-서버 모델은 SPARK를 활용해 빠른 분석과 사용자 요청을 처리하며 Server Agent와 Client Agent로 구분해 데이터 제공자가 데이터를 공개할 때 서버 측의 프로세스와 데이터 사용자가 데이터를 사용하기 위한 클라이언트 측의 프로세스로 구분하여 설명한다. 특히, 빅데이터 공유, 분산 빅데이터 처리, 빅트래픽 문제에 초점을 맞추어 클라이언트-서버 모델의 세부 모듈을 구성하고 각 모듈의 설계 방법에 대해 제시하고자 한다. 클라이언트-서버 모델을 통해서 빅데이터 공유문제를 해결하고 자유로운 공유 환경을 구성하여 안전하게 빅데이터를 공개하고 쉽게 빅데이터를 찾는 이상적인 공유 서비스를 제공할 수 있다.

A Proposal of Some Analysis Methods for Discovery of User Information from Web Data

  • Ahn, JeongYong;Han, Kyung Soo
    • Communications for Statistical Applications and Methods
    • /
    • 제8권1호
    • /
    • pp.281-289
    • /
    • 2001
  • The continuous growth in the use of the World Wide Web is creating the data with very large scale and different types. Analyzing such data can help to determine the life time value of users, evaluate the effectiveness of web sites, and design marketing strategies and services. In this paper, we propose some analysis methods for web data and present an example of a prototypical web data analysis.

  • PDF

건물에너지 분석 방법론 비교 - Steady-state simulation에서부터 Data-driven 방법론의 비교 분석 - (Comparing Methodology of Building Energy Analysis - Comparative Analysis from steady-state simulation to data-driven Analysis -)

  • 조수연;이승복
    • KIEAE Journal
    • /
    • 제17권5호
    • /
    • pp.77-86
    • /
    • 2017
  • Purpose: Because of the growing concern over fossil fuel use and increasing demand for greenhouse gas emission reduction since the 1990s, the building energy analysis field has produced various types of methods, which are being applied more often and broadly than ever. A lot of research products have been actively proposed in the area of the building energy simulation for over 50 years around the world. However, in the last 20 years, there have been only a few research cases where the trend of building energy analysis is examined, estimated or compared. This research aims to investigate a trend of the building energy analysis by focusing on methodology and characteristics of each method. Method: The research papers addressing the building energy analysis are classified into two types of method: engineering analysis and algorithm estimation. Especially, EPG(Energy Performance Gap), which is the limit both for the existing engineering method and the single algorithm-based estimation method, results from comparing data of two different levels- in other words, real time data and simulation data. Result: When one or more ensemble algorithms are used, more accurate estimations of energy consumption and performance are produced, and thereby improving the problem of energy performance gap.

Bounding Worst-Case Data Cache Performance by Using Stack Distance

  • Liu, Yu;Zhang, Wei
    • Journal of Computing Science and Engineering
    • /
    • 제3권4호
    • /
    • pp.195-215
    • /
    • 2009
  • Worst-case execution time (WCET) analysis is critical for hard real-time systems to ensure that different tasks can meet their respective deadlines. While significant progress has been made for WCET analysis of instruction caches, the data cache timing analysis, especially for set-associative data caches, is rather limited. This paper proposes an approach to safely and tightly bounding data cache performance by computing the worst-case stack distance of data cache accesses. Our approach can not only be applied to direct-mapped caches, but also be used for set-associative or even fully-associative caches without increasing the complexity of analysis. Moreover, the proposed approach can statically categorize worst-case data cache misses into cold, conflict, and capacity misses, which can provide useful insights for designers to enhance the worst-case data cache performance. Our evaluation shows that the proposed data cache timing analysis technique can safely and accurately estimate the worst-case data cache performance, and the overestimation as compared to the observed worst-case data cache misses is within 1% on average.