• Title/Summary/Keyword: 로그 구조

Search Result 304, Processing Time 0.026 seconds

전자 카달로그 특성요인이 인터넷 쇼핑몰 사용자의 구매의도에 미치는 영향에 관한 연구

  • 고일상;강주선
    • Proceedings of the Korea Society for Industrial Systems Conference
    • /
    • 2003.11a
    • /
    • pp.627-655
    • /
    • 2003
  • 국내 전자상거래 규모가 확대됨에 따라 인터넷 쇼핑몰 사업자들은 전자카달로그를 구축하여 예측된 시장규모에 대비하고 있다. 특히 고객을 유인할 수 있는 제품에 대한 전자카달로그의 정보제공의 질이 중요하다. 따라서 본 연구에서는 먼저 인터넷 쇼핑몰의 컨텐츠 관련 기존 연구조사를 바탕으로 인터넷 쇼핑몰 사용자의 구매의도에 영향을 주는 전자카달로그 특성요인을 추출하고, 이를 실증적으로 검증하였다. 실증분석결과 전자카달로그 특성요인 중 충실성, 최신성, 상호작용성, 구조성이 고객의 구매의도에 유의한 영향을 미침을 확인할 수 있었다. 결론부분에서는 이러한 연구 결과를 바탕으로 인터넷 쇼핑몰 사업자에게 시사점을 제시하였다

  • PDF

A Design of Dual-Phase Instructions for a effective Logarithm and Exponent Arithmetic (효율적인 로그와 지수 연산을 위한 듀얼 페이즈 명령어 설계)

  • Kim, Chi-Yong;Lee, Kwang-Yeob
    • Journal of IKEEE
    • /
    • v.14 no.2
    • /
    • pp.64-68
    • /
    • 2010
  • This paper proposes efficient log and exponent calculation methods using a dual phase instruction set without additional ALU unit for a mobile enviroment. Using the Dual Phase Instruction set, it extracts exponent and mantissa from expression of floating point and calculates 24bit single precision floating point of log approximation using the Taylor series expansion algorithm. And with dual phase instruction set, it reduces instruction excution cycles. The proposed Dual Phase architecture reduces the performance degradation and maintain smaller size.

Splog Detection Using Post Structure Similarity and Daily Posting Count (포스트의 구조 유사성과 일일 발행수를 이용한 스플로그 탐지)

  • Beak, Jee-Hyun;Cho, Jung-Sik;Kim, Sung-Kwon
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.2
    • /
    • pp.137-147
    • /
    • 2010
  • A blog is a website, usually maintained by an individual, with regular entries of commentary, descriptions of events, or other material such as graphics or video. Entries are commonly displayed in reverse chronological order. Blog search engines, like web search engines, seek information for searchers on blogs. Blog search engines sometimes output unsatisfactory results, mainly due to spam blogs or splogs. Splogs are blogs hosting spam posts, plagiarized or auto-generated contents for the sole purpose of hosting advertizements or raising the search rankings of target sites. This thesis focuses on splog detection. This thesis proposes a new splog detection method, which is based on blog post structure similarity and posting count per day. Experiments based on methods proposed a day show excellent result on splog detection tasks with over 90% accuracy.

Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment (클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현)

  • Kim, Myoungjin;Han, Seungho;Cui, Yun;Lee, Hanku
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.71-84
    • /
    • 2013
  • Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client's business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client's business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure's analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user's various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system's superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.

Efficient POLUG Recovery Method in Main Memory Databases System (주기억 장치 데이터베이스 시스템에서 효율적인 POLUG 회복 기법)

  • 김명근;조숙경;정광철;이순조;배해영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.190-192
    • /
    • 2000
  • MMDBMS(Main Memory Database Management System)에서 사용되는 갱신기법중 퍼지 검사점을 지원하는 직접갱신 기법은 많은 양의 로그를 필요로 하며 회복 과정이 복잡하다는 단점이 있다. 본 논문에서는 퍼지 검사점을 지원하면서 저장해야 할 로그의 양을 줄이고 회복 과정이 단순한 회복 기법을 제안한다. 제안하는 회복 기법은 로그의 양을 줄이고 위해 철회된 트랜잭션의 로그를 비휘발성 메모리에 저장하지 않는 시스템 구조와 많은 양의 메모리를 사용하지 않는 POLUG(Page Oritented Logical Undo loG)를 사용하여 퍼지 검사점을 지원할 수 있는 장점을 가진다.

  • PDF

Design and Implementation of the Recovery Method for Multimedia File System (멀티미디어 파일 시스템을 위한 회복 기법의 설계 및 구현)

  • 김영철;김홍연;김병섭;원종호;이미영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.334-336
    • /
    • 2003
  • 본 논문에서는 차세대 인터넷 서버의 멀티미디어 파일 시스템인 Content Container파일 시스템(CCFS)의 로그 기반 회복 기법을 설계하고 구현한 내용에 대해 기술한다. CCFS에서는 트랜잭션들이 개별적으로 로깅 할 수 있도록 함으로써 동시성을 높이면서 트랜잭션 수행 중에 로깅으로 인한 오버헤드를 줄인다. 그리고 로그 파일을 순환 구조로 사용할 수 있도록 효율적인 관리를 제공한다. 또한 시스템 고장이 발생하였을 때 로그 파일을 한번만 스캔하면서 완료한 트랜잭션에 대한 로그를 재수행함으로써 시스템의 빠른 회복과 재시작을 보장한다.

  • PDF

Discovering Web Page Association Rules & Evaluating Web Site Performance To Improve Web Site Structure (웹사이트 구조 개선을 위한 웹페이지 연관 규칙 발견과 웹사이트 성능 평가)

  • 김민정;박승수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.46-48
    • /
    • 2001
  • 현재 수많은 웹사이트들이 웹상에 존재하며 서비스를 하고 있다. 사용자는 여러 웹사이트 중에서 접속하기 편하고 잘 구성된 웹사이트에 접속하기 마련이므로, 잘 구성된 웹사이트 운영은 그 웹사이트의 생존 전략이며 방문자 유지에 필수적이다. 이를 위해 사용자들이 웹사이트에 접속한 기록이 남아 있는 웹서버 로그데이터(이하 웹 로그파일)를 분석하여 사용자들의 브라우징 패턴과 접속 경향, 웹 서버의 에러발생 정보 등을 파악할 수 있다. 본 논문에서는 Web Usage Mining 과 Web Structure Mining 작업으로 로그파일 분석과 웹사이트 구조분석을 수행하여 페이지들의 연관 관계와 웹사이트의 구조 정보를 발견해서 웹사이트의 구조를 개선하는 방안을 제안하고자 한다.

  • PDF

Partial Segement Effects on the Log-structured Disk Server (로그구조 디스크 서버에서 부분 세그먼트의 영향)

  • 김대웅;남영진;박찬익
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10a
    • /
    • pp.721-723
    • /
    • 1998
  • 본 논문에서는 기존의 로그구조 디스크 서버(Log-structured Disk Server ; LDS)상에서 부분 세그먼트에 의한 디스크 대역폭 이용률 저하 및 높은 공간 정리 부하(cleaning overhead)량과 같은 문제점을 제기하고, 이러한 부분 세그먼트를 제거하기 위한 방법의 하나로 비휘발성 메모리를 사용한 LDS를 제안한다. 이 새로운 LDS를 Solaris운영체제 상에서 구현하였으며, 다양한 실험을 통하여 제안된 구조가 디스크 대역폭 이용률 및 공간 정리 부하 측면에서 기존의 구조에 비해서 월등히 좋은 성능을 보임을 볼 수 있었다.

  • PDF

An Efficient Cleaning Scheme for File Defragmentation on Log-Structured File System (로그 구조 파일 시스템의 파일 단편화 해소를 위한 클리닝 기법)

  • Park, Jonggyu;Kang, Dong Hyun;Seo, Euiseong;Eom, Young Ik
    • Journal of KIISE
    • /
    • v.43 no.6
    • /
    • pp.627-635
    • /
    • 2016
  • When many processes issue write operations alternately on Log-structured File System (LFS), the created files can be fragmented on the file system layer although LFS sequentially allocates new blocks of each process. Unfortunately, this file fragmentation degrades read performance because it increases the number of block I/Os. Additionally, read-ahead operations which increase the number of data to request at a time exacerbates the performance degradation. In this paper, we suggest a new cleaning method on LFS that minimizes file fragmentation. During a cleaning process of LFS, our method sorts valid data blocks by inode numbers before copying the valid blocks to a new segment. This sorting re-locates fragmented blocks contiguously. Our cleaning method experimentally eliminates 60% of file fragmentation as compared to file fragmentation before cleaning. Consequently, our cleaning method improves sequential read throughput by 21% when read-ahead is applied.

A Study on Poisson-lognormal Model (포아송-로그정규분포 모형에 관한 연구)

  • 김용철
    • The Korean Journal of Applied Statistics
    • /
    • v.13 no.1
    • /
    • pp.189-196
    • /
    • 2000
  • Conjugate prior density families were motivated by considerations of tractability in implementing the Bayesian paradigm. But we consider problem that the conjugate prior p($\Theta$) cannot be used in restriction of the parameter $\Theta$. This article considers the nonconjugate prior problem of hierarchical Poisson model. We demonstrate the use of latent variables for sampling non-standard densities which arise in the context of the Bayesian analysis of non-conjugate by using a Gibbs sampler.

  • PDF