• Title/Summary/Keyword: 데이터 기반 의사결정

Search Result 783, Processing Time 0.029 seconds

재해발생시간 분포 알고리즘에 관한 연구

  • 한정훈;이원근;김창은
    • Proceedings of the Safety Management and Science Conference
    • /
    • 1999.11a
    • /
    • pp.9-21
    • /
    • 1999
  • 안전공학이 추구하는 사회적인 목표는 산업에 종사하는 사람들의 생명과 건강을 지키고, 재해에 의한 생산설비나 원자재, 제품의 손실을 막는 것이다. 광범위한 산업안전 연구 중에서 재해 통계 분석에 관한 연구는 다양한 종류의 재해에 관한 기초적 정보를 제공함으로서, 이에 따른 문제점의 파악이나 안전대책의 설정 등 안전관리에 있어서 의사결정이나 연구 방향을 결정하는 중요한 역할을 하고 있다. 현재 사업장 등에서 안전관리를 실시하는데, 안전수준의 평가로서 세계적으로 널리 이용되고 있는 계산식은 단위시간당의 재해발생 건수로 나타내어지는 도수율, 또는 근로자 1천만명당 재해발생 인원수를 나타내는 연 천인율이 등이 있다. 영국 A.H,A Wynn등이 광산재해의 예로 실시한 시간의 재해발생율의 차이를 재해발생 간격의 분포에 사용하여 검증했었다. 이것을 기반으로 재해발생 간격을 추정하고 검증함으로 재해발생 확률을 도출하여 안전관리의 새로운 척도를 제시하고자 한다. 이미 일본에서 많은 연구가 이루어져 왔으며, 이를 기초로 노동재해 발생수를 통한 통상의 검증법과 축차검증법의 이용으로 재해의 성향을 분석하여 그 결과를 재해의 예측에 이용함으로 재해예방을 실현하고자 한다. 그래서, 실제 국내에 정유공장의 데이터를 이용하여, 이 분포 알고리즘을 검증하는데 본 논문의 목적이 있다.

  • PDF

Decision tree based obesity and metabolic syndrome data classification and feature importance analysis (의사결정나무 기반 비만과 대사증후군 데이터 분류와 특징 중요도 분석)

  • Lee, Jongwook;Kim, Youngho;Baek, Byunghyun;Hwang, Doosung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.880-883
    • /
    • 2021
  • 비만은 다양한 합병증을 일으키는 위험요소로 현대인의 건강을 위협한다. 비만에 영향을 주는 요소들은 유전적 영향, 식습관, 신체활동 등이 연관된다. 비만 인구의 증가로 대사증후군의 발병률이 높아졌다. 대사증후군은 비만, 고지혈증과 고혈압 등의 여러 가지 성인병을 동반한다. 비만과 대사증후군 판별 요소 검출을 위한 개인의 신체 정보와 생활 정보 분석이 필요하다. 본 논문에서는 의사결정나무를 이용하여 비만과 대사증후군을 분류하고 분류 시 사용된 특징의 중요도 분석을 수행한다. 비만 분석 결과는 체중과 신장이 높은 특징 중요도를 나타냈으며 대사증후군은 HDL, 허리둘레, 혈압과 나이 등이 높은 특징 중요도를 보였다.

관제사 의사결정지원을 위한 인공지능 도입 및 활용방안

  • 이정구;이현석
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2022.06a
    • /
    • pp.33-35
    • /
    • 2022
  • 빅데이터·인공지능 등 4차 산업혁명 기술은 교통·의료·환경 등 다양한 분야에서 기술개발을 추진하고 이미 많은 기술이 실제 활용되고 있다. 특히, 철도관제와 항공 관제분야에서도 인공지능 기반 시스템이 접목되어 운영되고 있으나 선박교통관제 분야는 현장에 접목되어 활용되는 기술은 극히 드물다. 선박교통관제사가 관제구역 내에서 적게는 수척, 많게는 수십척의 선박을 동시에 관제하며 발생할 수 있는 인적 과실을 줄이기 위한 인프라 구축은 선박의 안전확보를 위해 필수요소이다. 본 연구는 해양경찰청 선박교통관제기술개발단에서 자체 개발한 음주운항 자동탐지 시스템과 닻 끌림 자동탐지 시스템에 활용한 기술을 소개하고 향후 고도화 및 활용방안을 제시하고자 한다.

  • PDF

머신러닝 기반 KOSDAQ 시장의 관리종목 지정 예측 연구

  • Yun, Yang-Hyeon;Kim, Tae-Gyeong;Kim, Su-Yeong;Park, Yong-Gyun
    • 한국벤처창업학회:학술대회논문집
    • /
    • 2021.11a
    • /
    • pp.185-187
    • /
    • 2021
  • 관리종목 지정 제도는 상장 기업 내 기업의 부실화를 경고하여 기업에게는 회생 기회를 주고, 투자자들에게는 투자 위험을 경고하기 위한 시장규제 제도이다. 본 연구는 관리종목과 비관리종목의 기업의 재무 데이터를 표본으로 하여 관리종목 지정 예측에 대한 연구를 진행하였다. 분석에 쓰인 분석 방법은 로지스틱 회귀분석, 의사결정나무, 서포트 벡터 머신, 소프트 보팅, 랜덤 포레스트, LightGBM이며 분류 정확도가 82.73%인 LightGBM이 가장 우수한 예측 모형이었으며 분류 정확도가 가장 낮은 예측 모형은 정확도가 71.94%인 의사결정나무였다. 대체적으로 앙상블을 이용한 학습 모형이 단일 학습 모형보다 예측 성능이 높았다.

  • PDF

Fast Visualization Technique and Visual Analytics System for Real-time Analyzing Stream Data (실시간 스트림 데이터 분석을 위한 시각화 가속 기술 및 시각적 분석 시스템)

  • Jeong, Seongmin;Yeon, Hanbyul;Jeong, Daekyo;Yoo, Sangbong;Kim, Seokyeon;Jang, Yun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.22 no.4
    • /
    • pp.21-30
    • /
    • 2016
  • Risk management system should be able to support a decision making within a short time to analyze stream data in real time. Many analytical systems consist of CPU computation and disk based database. However, it is more problematic when existing system analyzes stream data in real time. Stream data has various production periods from 1ms to 1 hour, 1day. One sensor generates small data but tens of thousands sensors generate huge amount of data. If hundreds of thousands sensors generate 1GB data per second, CPU based system cannot analyze the data in real time. For this reason, it requires fast processing speed and scalability for analyze stream data. In this paper, we present a fast visualization technique that consists of hybrid database and GPU computation. In order to evaluate our technique, we demonstrate a visual analytics system that analyzes pipeline leak using sensor and tweet data.

Big Data-based Sensor Data Processing and Analysis for IoT Environment (IoT 환경을 위한 빅데이터 기반 센서 데이터 처리 및 분석)

  • Shin, Dong-Jin;Park, Ji-Hun;Kim, Ju-Ho;Kwak, Kwang-Jin;Park, Jeong-Min;Kim, Jeong-Joon
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.19 no.1
    • /
    • pp.117-126
    • /
    • 2019
  • The data generated in the IoT environment is very diverse. Especially, the development of the fourth industrial revolution has made it possible to increase the number of fixed and unstructured data generated in manufacturing facilities such as Smart Factory. With Big Data related solutions, it is possible to collect, store, process, analyze and visualize various large volumes of data quickly and accurately. Therefore, in this paper, we will directly generate data using Raspberry Pi used in IoT environment, and analyze using various Big Data solutions. Collected by using an Sqoop solution collected and stored in the database to the HDFS, and the process is to process the data by using the solutions available Hive parallel processing is associated with Hadoop. Finally, the analysis and visualization of the processed data via the R programming will be used universally to end verification.

Real-time Data Mining application Model In Electronic Commerce (전자상거래 상에서의 실시간 데이터 마이닝 활용 모델)

  • Kim, Ko-Eun;Ok, Jee-Woong;Kim, Ung-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10c
    • /
    • pp.155-158
    • /
    • 2007
  • 현재 전자상거래는 우리의 생활과 밀접히 연관되어 있다. 최근 인터넷을 기반으로 전자조달, 수출입 브로커 등과 같은 유형의 B2B 전자상거래가 활발히 이루어지고 있으며, 소비자를 대상으로 하는 전자상거래 또한 점차 확산되는 시장을 형성하고 있다. 국제적으로도 전자상거래 시장 규모가 급속도로 증가할 것이라는 전망은 자명한 사실이다. 전자상거래에 대한 의존도가 높아지면서 관리해야 하는 데이터의 양 또한 급속도로 증가하고 있다. 본 논문에서는 실시간으로 유입되는 데이터를 효율적으로 활용하기 위챈 실시간 데이터 마이닝 활용 모델을 제안한다. 이 실시간 데이터 마이닝 모델은 지속적으로 유입되는 데이터의 규칙화를 통해 저장 공간의 효율성을 극대화하고 중요도 분석을 통한 총체적인 접근 방법을 시도함으로써 전자상거래 상에서 유용하게 쓰일 수 있는 활용 모델이다. 이 실시간 데이터 마이닝 모델의 바탕은 데이터 마이닝의 기법인 SEMMA를 따르며, 그 특징에 따라 규칙 추출과 의사 결정 나무 기법을 이용하여 전자상거래 상에서 유용하게 사용될 수 있는 모델을 제시하고자 한다.

  • PDF

Pattern extraction method using SVDD-based weighted (SVDD 기반 가중치를 이용한 패턴 추출 방법)

  • Yoon, Tae-Bok;Lee, Jee-Hyong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.323-324
    • /
    • 2011
  • 데이터 마이닝은 주어진 데이터로부터 의미 있는 정보를 찾기 위한 방법으로 주로 사용된다. 하지만, 분석을 위한 데이터에 의미 없는 정보가 포함되어 있다면 분석 결과를 신뢰 할 수 없을 것이다. 이를 위해서 의미 없는 데이터를 제거하기 위한 연구 사례가 있으나, 정상적인 데이터도 함께 제거될 수 있다는 단점이 있다. 본 논문은 패턴 추출을 위한 분석 데이터를 SVDD 방법을 이용하여 의미 있는 데이터와 의미 없는 데이터 간에 가중치를 구한다. 생성된 가중치는 의사결정나무 생성에 반영하였고, 실험을 통하여 유효성을 확인하였다.

Using cluster analysis and genetic algorithm to develop portfolio investment strategy based on investor information (군집분석과 유전자 알고리즘을 활용한 투자자 거래정보 기반 포트폴리오 투자전략)

  • Cheong, Donghyun;Oh, Kyong Joo
    • Journal of the Korean Data and Information Science Society
    • /
    • v.25 no.1
    • /
    • pp.107-117
    • /
    • 2014
  • The main purpose of this study is to propose a portfolio investment strategy based on investor types information. For improvement of investment performance, artificial intelligence techniques are used to construct a portfolio. Among many artificial intelligence techniques, cluster analysis is applied to select securities and genetic algorithm is applied to assign the respective weight within the portfolio. Empirical experiments in the Korean stock market show that proposed portfolio investment strategy is practicable and superior strategy. This result implies that analysis of investor's trading behavior may assist investors to make an investment decision and to get superior performance.

A Study on the Machine Learning Model for Product Faulty Prediction in Internet of Things Environment (사물인터넷 환경에서 제품 불량 예측을 위한 기계 학습 모델에 관한 연구)

  • Ku, Jin-Hee
    • Journal of Convergence for Information Technology
    • /
    • v.7 no.1
    • /
    • pp.55-60
    • /
    • 2017
  • In order to provide intelligent services without human intervention in the Internet of Things environment, it is necessary to analyze the big data generated by the IoT device and learn the normal pattern, and to predict the abnormal symptoms such as faulty or malfunction based on the learned normal pattern. The purpose of this study is to implement a machine learning model that can predict product failure by analyzing big data generated in various devices of product process. The machine learning model uses the big data analysis tool R because it needs to analyze based on existing data with a large volume. The data collected in the product process include the information about product faulty, so supervised learning model is used. As a result of the study, I classify the variables and variable conditions affecting the product failure, and proposed a prediction model for the product failure based on the decision tree. In addition, the predictive power of the model was significantly higher in the conformity and performance evaluation analysis of the model using the ROC curve.