• Title/Summary/Keyword: 로그 생성

Search Result 333, Processing Time 0.034 seconds

Global lifelog media cloud development and deployment (글로벌 라이프로그 미디어 클라우드 개발 및 구축)

  • Song, Hyeok;Choe, In-Gyu;Lee, Yeong-Han;Go, Min-Su;O, Jin-Taek;Yu, Ji-Sang
    • Broadcasting and Media Magazine
    • /
    • v.22 no.1
    • /
    • pp.35-46
    • /
    • 2017
  • 글로벌 라이프로그 미디어 클라우드 서비스를 위하여 네트워크 기술, 클라우드 기술 멀티미디어 App 기술 및 하이라이팅 엔진 기술이 요구된다. 본 논문에서는 미디어 클라우드 서비스를 위한 개발 기술 및 서비스 기술 개발 결과를 보였다. 하이라이팅 엔진은 표정인식기술, 이미지 분류기술, 주목도 지도 생성기술, 모션 분석기술, 동영상 분석 기술, 얼굴 인식 기술 및 오디오 분석기술 등을 포함하고 있다. 표정인식 기술로는 Alexnet을 최적화하여 Alexnet 대비 1.82% 우수한 인식 성능을 보였으며 처리속도면에서 28배 빠른 결과를 보였다. 행동 인식 기술에 있어서는 기존 2D CNN 및 LSTM에 기반한 인식 방법에 비하여 제안하는 3D CNN 기법이 0.8% 향상된 결과를 보였다. (주)판도라티비는 클라우드 기반 라이프로그 동영상 생성 서비스를 개발하여 현재 테스트 서비스를 진행하고 있다.

Multilingual SPLOG classification using language independent features (언어 독립적인 자질을 이용한 다국어 스플로그 분류)

  • Hong, Seong-Hak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.284-287
    • /
    • 2011
  • 블로그는 검색 서비스에 노출되는 주요 사용자 생성 콘텐트 중 하나이며 스팸과 SEO를 위한 주요 대상이 되어왔다. 최근에는 인터넷 보급의 보편화로 비영어권 국가에서의 블로그 사용자가 증가하면서 블로그 검색에서도 여러 언어로 작성된 블로그와 스팸이 노출되고 있다. 일반적인 블로그 검색엔진에서의 스팸 필터의 경우 특정 국가나 언어를 위한 스팸 필터 시스템을 각기 구성하여 이를 별도로 사용하지만이는 자원 소모의 문제와 함께 크롤을 통해 유입되는 다양한 언어로 작성된 블로그 스팸을 미리 감지하기 어렵다. 본 논문에서는 블로그를 크롤하여 서비스하는 국제화를 지원하는 블로그 검색엔진에서 스플로그를 탐지하기 위해 속성 및 단어 기반 자질들을 이용한 다국어 공용 스플로그 감지 모델을 생성 하는 방법과 효과를 확인하기 위해 실험을 수행하였으며 가능성이 있음을 확인하였다.

Two Factor Authentication System base on Software type of Secure Card For Secure Login (안전한 로그인을 위한 보안카드 기반 이중 인증 시스템에 대한 연구)

  • Jo, Je-Gyeong;Seo, Jong-Won;Lee, Hyung-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.977-980
    • /
    • 2007
  • 로그인 과정은 사용자의 ID와 Password를 기반으로 시스템에 대한 사용권한을 부여한다. 로그인 과정에서 입력된 ID와 Password 정보는 패킷 스니핑 또는 Keylogger 프로그램 등을 이용하여 악의적인 공격자에 의해 노출될 수 있다는 취약점이 있다. 웹서버 또는 웹메일 시스템 등에 등록된 ID와 Password가 노출된다면 이는 개인 프라이버시 문제와도 연결되어 매우 심각한 문제이기도 하다. 현재 대부분의 시스템에서는 ID와 Password 만을 가지고 사용자에 대한 인증 및 로그인 과정을 수행하기 때문에 더욱더 강력한 복합 로그인 메카니즘이 제시되어야 한다. 본 연구에서는 기존의 ID/Password 기반 로그인 기법과 더불어 소프트웨어 형태의 보안카드를 핸드폰에 설치하여 유무선망을 통한 이중 인증(Two factor authentication) 기법을 제시한다. 제안한 소프트웨어 형태의 보안카드 기반 로그인 기법은 ID/Password와 함께 부가적 정보로써 사용자의 핸드폰에 발급받은 보안카드내 난수 형태로 생성된 번호를 사용한다. 따라서 제안한 시스템을 사용할 경우 기존의 ID와 Password와 연계되어 일회용 패스워드 형태로 제공되는 보안카드 정보를 사용하여 로그인 과정을 수행하기 때문에 보다 안전한 인증 시스템을 구축할 수 있다.

  • PDF

Layout Based Multimodal Contents Aughoring Tool for Digilog Book (디지로그 북을 위한 레이아웃 기반 다감각 콘텐츠 저작 도구)

  • Park, Jong-Hee;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.512-515
    • /
    • 2009
  • In this paper, we propose layout based multimodal contents authoring tool for Digilog Book. In authoring step, users create a virtual area using mouse or pen-type device and select property of the area repetitively. After finishing authoring step, system recognizes printed page number and generate page layout including areas and property information. Page layout is represented as a scene graph and stored as XML format. Digilog Book viewer loads stored page layout and analyze properties then augment virtual contents or execute functions based on area. Users can author visual and auditory contents easily by using hybrid interface. In AR environment, system provides area templates in order to help creating area. In addition, proposed authoring tool separates page recognition module from page tracking module. So, it is possible to author many pages using only single marker. As a result of experiment, we showed proposed authoring tool has reasonable performance time in AR environment. We expect that proposed authoring tool would be applicable to many fields such as education and publication.

  • PDF

Prolog Tailoring Technique on Epilog Tailored Procedures (에필로그 테일러된 프로시저를 위한 프롤로그 테일러링 기법)

  • Jhi, Yoon-Chan;Kim, Ki-Chang
    • The Transactions of the Korea Information Processing Society
    • /
    • v.5 no.5
    • /
    • pp.1345-1356
    • /
    • 1998
  • Prolog tailoring technique, an optimization method to improve the execution speed of a procedure, is proposed in this paper. When a procedure is frequently and repeatedly called and the machine has a lot of callee-saved registers, optimizing prolog and epilog can become an important step of optimization. Epilg tailoring supported by IBM XL C Compiler has been known to improve procedure's execution speed by reducing register restore instructions on execution paths, but no algorithms for prolog tailoring has been proposed yet. The prolog generated by the prolog tailoring algorithm proposed in this paper executes considerably smaller number of register save instructions at run-time. This means the total number of instructions to be executed is decreased resulting in an improvement on the procedure's execution speed. To maintain the correctness of code, prolog code should not be inserted inside diamond structures of loop structures. This paper proposes a prolog tailoring technique which generates register save instructions at the best position in a control flow graph while not allowing the insertion of any prolog code inside diamond structures of loop structures.

  • PDF

Generating Technology of the Association Rule for Analysis of Audit Data on Intrusion Detection (침입탐지 감사자료 분석을 위한 연관규칙 생성 기술)

  • Soh, Jin;Lee, Sang-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11b
    • /
    • pp.1011-1014
    • /
    • 2002
  • 최근 대규모 네트워크 데이터에 대한 패턴을 분석하기 위한 연구에 대하여 관심을 가지고 침입탐지 시스템을 개선하기 위해 노력하고 있다. 특히, 이러한 광범위한 네트워크 데이터 중에서 침입을 목적으로 하는 데이터에 대한 탐지 능력을 개선하기 위해 먼저, 광범위한 침입항목들에 대한 탐지 적용기술을 학습하고, 그 다음에 데이터 마이닝 기법을 이용하여 침입패턴 인식능력 및 새로운 패턴을 빠르게 인지하는 적용기술을 제안하고자 한다. 침입 패턴인식을 위해 각 네트워크에 돌아다니는 관련된 패킷 정보와 호스트 세션에 기록되어진 자료를 필터링하고, 각종 로그 화일을 추출하는 프로그램들을 활용하여 침입과 일반적인 행동들을 분류하여 규칙들을 생성하였으며, 생성된 새로운 규칙과 학습된 자료를 바탕으로 침입탐지 모델을 제안하였다. 마이닝 기법으로는 학습된 항목들에 대한 연관 규칙을 찾기 위한 연역적 알고리즘을 이용하여 규칙을 생성한 사례를 보고한다. 또한, 추출 분석된 자료는 리눅스 기반의 환경 하에서 다양하게 모아진 네트워크 로그파일들을 분석하여 제안한 방법에 따라 적용한 산출물이다.

  • PDF

Comparison of Cube generation methods : A case study on a network traffic log analysis system (큐브 생성 기법에 대한 비교 평가 : 네트워크 트래픽 로그 분석 시스템 사례 중심)

  • Lim, Byung-Nam;Son, Ji-Hoon;Chung, Yon-Dohn
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.107-109
    • /
    • 2012
  • 데이터 큐브는 다차원 데이터 분석에 널리 사용되는 방법이다. 이 큐브 분석 방법을 사용하기 위해서는 먼저 데이터 큐브를 생성해야 한다. 이 데이터 큐브를 생성하기 위한 여러가지 방법들이 존재한다. 본 논문에서는 네트워크 트래픽 로그를 분석하는 시스템에서 다양한 큐브 생성 방법에 대하여 비교 평가한 사례를 제시한다.

Logging Mechanism of Very Large Scale Workflow Engine (초대형 워크플로우 엔진의 로깅 메커니즘)

  • Ahn, Hyung-Jin;Park, Mean-Jae;Kim, Kwang-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.149-152
    • /
    • 2005
  • 워크플로우 시스템은 비즈니스 환경에서 프로세스의 자동화 수행을 통해 업무 처리의 효율성 및 성능을 극대화시켜주는 미들웨어 시스템이며 워크플로우 엔진은 이러한 비즈니스 서비스의 실질적인 수행을 컨트롤 및 관리해주는 역할을 한다. 워크플로우 클라이언트로부터의 서비스 요청에 대한 처리를 위해 워크플로우 엔진은 엔진 내부의 핵심 컴포넌트들의 연동에 의해 생성되는 서비스 인스턴스들의 처리 행위를 통해 서비스를 수행하며, 서비스 처리를 하면서 발생되는 이벤트들에 대해서 로그를 기록한다. 이러한 로그 데이터들은 워크플로우 모니터링 분석에 중요한 근거 자료로서 사용되며, 워크플로우 웨어하우징 및 마이닝등의 분야에서 주요 근간 데이터로서 사용될 수 있다. 본 논문에서는 자체 제작된 e-chautauqua 초대형 워크플로우 시스템을 배경으로 초대형 워크플로우 라는 환경에서 대용량의 로그를 어떻게 구성하는지에 대해서도 살펴볼 것이며, 워크플로우 엔진을 구성하는 핵심 컴포넌트들의 연동에 의해 수행되는 서비스 인스턴스들의 이벤트들이 어떠한 모습으로 로그 메시지를 구성하게 되는지에 대한 로그 메시지 포맷에 대한 전반적인 워크플로우 로깅 메커니즘에 대해 기술하고자 한다.

  • PDF

Refining massive event logs to evaluate performance measures of the container terminal (컨테이너 터미널 성능평가를 위한 대용량 이벤트 로그 정제 방안 연구)

  • Park, Eun-Jung;Bae, Hyerim
    • The Journal of Bigdata
    • /
    • v.4 no.1
    • /
    • pp.11-27
    • /
    • 2019
  • There is gradually being a decrease in earnings rate of the container terminals because of worsened business environment. To enhance global competitiveness of terminal, operators of the container terminal have been attempting to deal with problems of operations through analyzing overall the terminal operations. For improving operations of the container terminal, the operators try to efforts about analyzing and utilizing data from the database which collects and stores data generated during terminal operation in real time. In this paper, we have analyzed the characteristics of operating processes and defined the event log data to generate container processes and CKO processes using stored data in TOS (terminal operating system). And we have explained how imperfect event logs creating non-normal processes are refined effectively by analyzing the container and CKO processes. We also have proposed the framework to refine the event logs easily and fast. To validate the proposed framework we have implemented it using python2.7 and tested it using the data collected from real container terminal as input data. In consequence we could have verified that the non-normal processes in the terminal operations are greatly improved.

  • PDF

Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment (클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현)

  • Kim, Myoungjin;Han, Seungho;Cui, Yun;Lee, Hanku
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.71-84
    • /
    • 2013
  • Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client's business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client's business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure's analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user's various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system's superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.