• Title/Summary/Keyword: 로그 데이터

Search Result 890, Processing Time 0.023 seconds

A Text Mining-based Intrusion Log Recommendation in Digital Forensics (디지털 포렌식에서 텍스트 마이닝 기반 침입 흔적 로그 추천)

  • Ko, Sujeong
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.2 no.6
    • /
    • pp.279-290
    • /
    • 2013
  • In digital forensics log files have been stored as a form of large data for the purpose of tracing users' past behaviors. It is difficult for investigators to manually analysis the large log data without clues. In this paper, we propose a text mining technique for extracting intrusion logs from a large log set to recommend reliable evidences to investigators. In the training stage, the proposed method extracts intrusion association words from a training log set by using Apriori algorithm after preprocessing and the probability of intrusion for association words are computed by combining support and confidence. Robinson's method of computing confidences for filtering spam mails is applied to extracting intrusion logs in the proposed method. As the results, the association word knowledge base is constructed by including the weights of the probability of intrusion for association words to improve the accuracy. In the test stage, the probability of intrusion logs and the probability of normal logs in a test log set are computed by Fisher's inverse chi-square classification algorithm based on the association word knowledge base respectively and intrusion logs are extracted from combining the results. Then, the intrusion logs are recommended to investigators. The proposed method uses a training method of clearly analyzing the meaning of data from an unstructured large log data. As the results, it complements the problem of reduction in accuracy caused by data ambiguity. In addition, the proposed method recommends intrusion logs by using Fisher's inverse chi-square classification algorithm. So, it reduces the rate of false positive(FP) and decreases in laborious effort to extract evidences manually.

A Summarization of Multi-Camera Office Event Using User Log Analysis (사용자 로그분석을 이용한 멀티 카메라 사무실 이벤트 요약)

  • Park, Han-Saem;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.186-190
    • /
    • 2008
  • 최근 카메라를 비롯한 다양한 센서 기술 및 디지털 저장장치의 발달로 사용자의 일상생활의 기록인 라이프 로그를 수집하고 분석하는 연구가 활발히 이루어지고 있다. 라이프 로그는 모바일 디바이스에 포함된 다양한 센서를 통해 실외에서 수집되는 경우와 실내에 카메라를 중심으로 한 센서를 설치하여 수집되는 경우로 나누어 볼 수 있으며, 수집된 로그는 다양한 방법을 통해 분석하여 사용자에게 요약이나 검색과 같은 서비스 제공에 활용될 수 있다. 본 논문은 오피스 환경에 다수의 카메라를 설치하여 수집한 실내 비디오 로그 데이터를 대상으로 하며, 사용자의 어플리케이션 로그를 분석하여 요약을 위해 활용한다. 다수의 카메라는 오피스의 가운데 부분을 비추도록 하여, 발생한 하나의 이벤트에 대한 다양한 시점의 영상을 얻을 수 있도록 하였다. 전체 요약 과정은 크게 데이터 어노테이션, 사용자 로그분석을 이용한 이벤트 시퀀스 요약, 도메인 지식을 이용한 카메라 뷰의 선택으로 나뉘어 수행된다. 최종적으로 실험을 통해 제안하는 요약 방법이 좋은 결과를 보임을 확인하였다.

  • PDF

Design of Hybrid IDS(Intrusion Detection System) Log Analysis System based on Hadoop and Spark (Hadoop과 Spark를 이용한 실시간 Hybrid IDS 로그 분석 시스템에 대한 설계)

  • Yoo, Ji-Hoon;Yooun, Hosang;Shin, Dongil;Shin, Dongkyoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.217-219
    • /
    • 2017
  • 나날이 증가하는 해킹의 위협에 따라 이를 방어하기 위한 침임 탐지 시스템과 로그 수집 분야에서 많은 연구가 진행되고 있다. 이러한 연구들로 인해 다양한 종류의 침임 탐지 시스템이 생겨났으며, 이는 다양한 종류의 침입 탐지 시스템에서 서로의 단점을 보안할 필요성이 생기게 되었다. 따라서 본 논문에서는 네트워크 기반인 NIDS(Network-based IDS)와 호스트 기반인 HIDS(Host-based IDS)의 장단점을 가진 Hybrid IDS을 구성하기 위해 NIDS와 HIDS의 로그 데이터 통합을 위해 실시간 로그 처리에 특화된 Kafka를 이용하고, 실시간 분석에 Spark Streaming을 이용하여 통합된 로그를 분석하게 되며, 실시간 전송 도중에 발생되는 데이터 유실에 대해 별도로 저장되는 Hadoop의 HDFS에서는 데이터 유실에 대한 보장을 하는 실시간 Hybrid IDS 분석 시스템에 대한 설계를 제안한다.

A Study on implementation model for security log analysis system using Big Data platform (빅데이터 플랫폼을 이용한 보안로그 분석 시스템 구현 모델 연구)

  • Han, Ki-Hyoung;Jeong, Hyung-Jong;Lee, Doog-Sik;Chae, Myung-Hui;Yoon, Cheol-Hee;Noh, Kyoo-Sung
    • Journal of Digital Convergence
    • /
    • v.12 no.8
    • /
    • pp.351-359
    • /
    • 2014
  • The log data generated by security equipment have been synthetically analyzed on the ESM(Enterprise Security Management) base so far, but due to its limitations of the capacity and processing performance, it is not suited for big data processing. Therefore the another way of technology on the big data platform is necessary. Big Data platform can achieve a large amount of data collection, storage, processing, retrieval, analysis, and visualization by using Hadoop Ecosystem. Currently ESM technology has developed in the way of SIEM (Security Information & Event Management) technology, and to implement security technology in SIEM way, Big Data platform technology is essential that can handle large log data which occurs in the current security devices. In this paper, we have a big data platform Hadoop Ecosystem technology for analyzing the security log for sure how to implement the system model is studied.

웹 로그 분석 모델

  • Kwon, Yeong-Jik
    • Proceedings of the Korea Society for Industrial Systems Conference
    • /
    • 2009.05a
    • /
    • pp.212-219
    • /
    • 2009
  • 본 논문에서는 웹 관리자가 웹 사이트 분석을 위하여 웹 로그(web log) 분석을 통한 필요한 정보를 추출하고, 추출된 데이터를 분석하여 웹 환경을 개선시키고, 웹 사이트 방문자를 위해 더 좋은 서비스를 할 수 있는 새로운 웹 로그 분석 모델을 제안 한다. 이와 같은 목적을 달성하기 위해 본 논문에서는 웹 로그의 개념 및 유형, 웹 로그의 분석 원칙 및 웹 로그 분석 방법을 고찰하였다. 웹 로그 분석 도구로는 Web Log Expert를 활용하였다. 본 논문에서는 이 도구를 이용하여 웹 방문자 수에 대한 통계분석, 인기가 많은 웹 사이트에 대한 페이지분석 및 방문자 IP 분석 등을 실시하였다.

  • PDF

Similarity Pattern Analysis of Web Log Data using Multidimensional FCM (다차원 FCM을 이용한 웹 로그 데이터의 유사 패턴 분석)

  • 김미라;조동섭
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.190-192
    • /
    • 2002
  • 데이터 마이닝(Data Mining)이란 저장된 많은 양의 자료로부터 통계적 수학적 분석방법을 이용하여 다양한 가치 있는 정보를 찾아내는 일련의 과정이다. 데이터 클러스터링은 이러한 데이터 마이닝을 위한 하나의 중요한 기법이다. 본 논문에서는 Fuzzy C-Means 알고리즘을 이용하여 웹 사용자들의 행위가 기록되어 있는 웹 로그 데이터를 데이터 클러스터링 하는 방법에 관하여 연구하고자 한다. Fuzzv C-Means 클러스터링 알고리즘은 각 데이터와 각 클러스터 중심과의 거리를 고려한 유사도 측정에 기초한 목적 함수의 최적화 방식을 사용한다. 웹 로그 데이터의 여러 필드 중에서 사용자 IP, 시간, 웹 페이지 필드를 WLDF(Web Log Data for FCM)으로 가공한 후, 다차원 Fuzzy C-Means 클러스터링을 한다. 그리고 이를 이용하여 샘플 데이터와 임의의 데이터간의 유사 패턴 분석을 하고자 한다.

  • PDF

Performance Improvement of Data Preprocessing for Intersite Web Usage Mining (사이트간 웹 사용 마이닝을 위한 데이터 전처리의 성능 향상)

  • Hyun, Woo-Seok
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.357-361
    • /
    • 2006
  • 매일 새롭게 생기는 웹 페이지 수가 수천만 개, 온라인 문서들의 수가 수십억 개에 이르게 되자, 웹 사이트를 설계함에 있어서 웹 서버 로그 파일에 기록된 사용자의 행동을 분석하는 것이 중요한 부분이 되어가고 있다. 분석가들은 전체 웹 사이트에서 사용자 행동의 완전한 개요를 알기 원하기 때문에 고객이 방문했던 모든 다른 웹 서버를 통하여 사용자의 패스(path)를 다시 수집해야만 한다. 본 연구에서는 모든 로그 파일을 연결해서 방문했던 곳을 재구성하는 향상된 데이터 전처리 방법에 의하여 실험을 하여 로그 파일 크기를 감소시키게 되어 데이터 전처리의 성능이 향상되었음을 보였다.

  • PDF

Efficient Estimation of the Fractal Dimension from Time Series Data Using LTS (Least Trimmed Squares) Estimator for EEG (Encephalogram) Analysis (뇌파 분석을 위한 LTS 추정기법을 이용한 시계열 데이터의 효율적인 프랙탈 차원 추정)

  • 이광호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.78-80
    • /
    • 1998
  • 본 논문은 일차원의 시계열 데이터를 입력을 하여 위상공간 재구성 과정을 거쳐 다차원 위상공간상에서 프랙탈 차원을 계산하는 효율적인 방법을 제안한다. 프랙탈 차원의 추정에 소요되는 계산량을 줄이기 위해 로그 연산을 비트 연산으로 대체하고, 거리계산의 순서를 바꿈으로써 위상공간의 차원에 무관한 상수 시간의 계산복잡도를 가지는 알고리즘을 구현하였다. 또한 최소절단자승 추정기법을 적용하여 로그-로그 그래프 상에서의 기울기 추정을 함으로써 프랙탈 차원의 추정치에 대한 정확도를 높였다. 참값이 알려진 시계열 데이터에 대한 차원 추정 실험을 통하여 제안된 방법의 정확성을 보였다.

  • PDF

Trend Analysis of Users for The Effective Web Personalization (효율적 웹 개인화를 위한 웹 사용자들의 경향분석)

  • 임영문;김홍기
    • Journal of the Korea Safety Management & Science
    • /
    • v.3 no.4
    • /
    • pp.193-205
    • /
    • 2001
  • 온라인 기업의 경우 쉽게 가질 수 있는 고객데이터는 고객이 자사의 홈페이지에 접속하여 남기고 간 흔적(Web Log)이나, 고객이 직접 제공하는 데이터 일 것이다. 현재 많은 온라인 기업이 가장 기본적인 분석으로 웹 로그 분석을 시행하고 있으나, 그 양이 너무 많아 수시로 처리하는데는 문제가 있기도 하지만, 가장 쉽고, 기본적인 분석임은 피할 수 없는 사실이다. 기존의 웹 로그 분석에 관한 연구들이 웹 로그 분석을 통하여 사용자패턴 분석에 그친대 비하여 본 논문은 무선 페이지를 위한 컨텐츠추출 및 기존의 데이터중심의 마케팅 전략에서 벗어나 동양적인 정서를 가미한 마케팅 전략도 함께 제시한 것에 그 의의가 있다.

  • PDF

OLAP System and Performance Evaluation for Analyzing Web Log Data (웹 로그 분석을 위한 OLAP 시스템 및 성능 평가)

  • 김지현;용환승
    • Journal of Korea Multimedia Society
    • /
    • v.6 no.5
    • /
    • pp.909-920
    • /
    • 2003
  • Nowadays, IT for CRM has been growing and developed rapidly. Typical techniques are statistical analysis tools, on-line multidimensional analytical processing (OLAP) tools, and data mining algorithms (such neural networks, decision trees, and association rules). Among customer data, web log data is very important and to use these data efficiently, applying OLAP technology to analyze multi-dimensionally. To make OLAP cube, we have to precalculate multidimensional summary results in order to get fast response. But as the number of dimensions and sparse cells increases, data explosion occurs seriously and the performance of OLAP decreases. In this paper, we presented why the web log data sparsity occurs and then what kinds of sparsity patterns generate in the two and t.he three dimensions for OLAP. Based on this research, we set up the multidimensional data models and query models for benchmark with each sparsity patterns. Finally, we evaluated the performance of three OLAP systems (MS SQL 2000 Analysis Service, Oracle Express and C-MOLAP).

  • PDF