• 제목/요약/키워드: Web log analysis

검색결과 160건 처리시간 0.03초

윕기반 철도 위험도평가 사고분석 프로그램 개발에 관한 연구 (Development of a Web Based Railway Accident Analysis Program for Risk Assessment)

  • 박찬우;곽상록;왕종배;박주남
    • 한국철도학회:학술대회논문집
    • /
    • 한국철도학회 2006년도 추계학술대회 논문집
    • /
    • pp.1126-1131
    • /
    • 2006
  • Risk assessment of a railway system should be periodically conducted managing a large amount of accumulating accident/incident data and scenarios, which generally requires enormous time and efforts. Therefore, special information management system is essential for railway risk assessment, where data needed for decisions on managing the railway safety could be promptly supported. The objective of this study is to develop a railway accident analysis program for risk assessment. The program is application running on the web which links railway accident analysts throughout the railway industry to a central database. Data entered, together with associated code tables. is stored on MS-SQL database. The program uses the concepts of accident, safety events, causes, related factors(vehicle, person, infrastructure, tool/equipment), recommendations to bring together the various elements of railway accidents. The program will be useful in finding hazard conditions, accident scenarios, quantitatively assessing the risk, and providing pertinent risk measures, eventually serving to prevent railway accidents and reduce severities of railway accidents.

  • PDF

웹 응용 재구성을 위한 폼 클러스터링 알고리즘 (A Form Clustering Algorithm for Web-based Application Reengineering)

  • 최상수;박학수;이강수
    • 한국전자거래학회지
    • /
    • 제8권2호
    • /
    • pp.77-98
    • /
    • 2003
  • 최근의 정보시스템은 웹기반 정보시스템이며 이의 개발과 유지보수 시에 "웹 위기" 현상이 발생하고 있다. 이를 해결하기 위해, 웹 공학 기술 중 웹기반 어플리케이션에 대한 소프트웨어 클러스터링 기술이 필요하다. 본 논문에서는 웹기반 정보시스템의 내부시스템 재구성을 위한 폼 클러스터링 알고리즘을 제시한다. 폼 클러스터링 알고리즘은 웹기반 정보시스템의 다양한 구조모델 중에서 웹의 특징이라 할 수 있는 페이지 모델에 초점을 맞춘다. 특히, 그래프 형태의 항해구조를 분석이 용이한 계층구조로 분석하기 위해 거리 척도 개념을 응용하고, 부하가 큰 핵심 기능객체를 파악하기 위하여 웹 로그분석 기술을 적용한다. 또한,2단계에 걸친 클러스터링 과정을 통해 재사용 성을 극대화하고 부하 균형화를 위한 하드웨어 할 당시에 사용할 수 있는 웹 소프트웨어 구조를 생성한다. 본 논문에서 제시한 폼 클러스터링 알고리즘은 웹기반 정보시스템의 신규 개발 또는 유지보수 시에 재사용 가능한 웹 컴포넌트 개발 및 부하균형화를 위한 하드웨어 할당 시에 적용할 수 있다.

  • PDF

웹애널리틱스를 이용한 아카이브 이용자 분석 사례 연구 (A Case study analysing the users of archives through web analytics)

  • 이효은;임진희
    • 기록학연구
    • /
    • 제45호
    • /
    • pp.83-120
    • /
    • 2015
  • 기록정보서비스는 이용자들의 행태를 관찰하고 그들의 정보요구를 파악하여 그에 맞는 기록정보에 연결하고 안내해주는 적극적인 행위이다. 그러나 국내 기록정보서비스에 대한 연구는 이용자를 세분화하여 개인화된 서비스를 제공해야 한다는 당위성을 인정하지만 구체적인 사례나 방안에 대해서는 논의되지 않고 있다. 웹의 대중화와 알 권리의 확산으로 웹기록정보서비스의 중요성이 대두되고 있지만, 현재 우리나라 대부분의 기록관리기관에서는 실무 현장에서의 인식이 부족하고 인력과 예산의 불충분으로 웹로그분석을 실시하지 못하고 있다. 그래서 기관의 기록정보서비스 담당자의 업무 효율성을 높여주면서 예산이 부족한 기관에서 활용될 수 있는 분석 도구의 도입이 필요하다. 웹애널리틱스는 사이트에 방문한 웹이용자가 남긴 웹로그를 분석하여 행태를 분석하는 것이다. 그 종류에는 여러 가지가 있는데 그 중에서도 구글애널리틱스는 무료로 다양한 분석 항목을 제공하고 있어 전 세계 많은 인구가 이미 사용하고 있다. 본 연구에서는 구글애널리틱스를 중심으로 웹애널리틱스를 소개하고 이를 실제 기관에 도입한 민주화운동기념사업회 사료관의 사례를 분석하여 구체적인 웹이용자 세분화와 서비스 개선 방안을 제시하고자 한다.

공공도서관의 진단적 평가와 대안모색 - 대구광역시를 중심으로 - (Diagnostic Evaluation and Alternative Plans of Public Libraries in Taegu Metropolitan City)

  • 윤희윤
    • 한국문헌정보학회지
    • /
    • 제34권2호
    • /
    • pp.47-67
    • /
    • 2000
  • 본 연구는 대구광역시 공공도서관을 대상으로 로그-회귀분석에 의한 경영성과를 평가하고 대안을 모색하였다. 투입예산에 대한 산출효과(생산성)를 분석한 결과, 기울기(b)의 누적값(${\Sigma}b_n$)은 약 3.732이므로 지역주민에 대한 정보봉사력은 매우 낮은 것으로 밝혀졌다. 이에 대한 대안으로 도서관 정체성의 재정립, 최적의 입지선정과 증설, 예산배정 및 장서구성의 개선, 적정 인력의 확보와 조직개편, 웹환경의 최적화, 이용자봉사의 강화를 제시하였다.

  • PDF

개인정보 보호를 위한 네트워크 보안장비의 로그 가시화 방법 연구 (An Log Visualization Method of Network Security Equipment for Private Information Security)

  • 심희연;김형종
    • 융합보안논문지
    • /
    • 제8권4호
    • /
    • pp.31-40
    • /
    • 2008
  • 최근 들어 단순히 시스템에 남아있는 단서들을 분석하는 디스크 포렌식에서 공격자의 추적을 위해 시스템이 포함하는 네트워크의 침입 관련 정보를 분석하여 네트워크 포렌식의 연구가 활발해지고 있다. Firewall이나 IDS, 웹서버 로그의 상호 관계와 분석은 네트워크 포렌식 절차에서 중요한 역할을 한다. 이 연구는 네트워크 포랜식에서 개인정보 노출 감시를 위한 통합 GUI를 제시한다. 본 논문에서는 네트워크 포렌식을 위한 다양한 로그 정보들의 필요성을 제시하고 개인정보 누출을 모니터하는 보안 관리자를 위한 GUI를 설계한다.

  • PDF

웹 마이닝을 이용한 개인 광고기법에 관한 연구 (A Study on Personalized Advertisement System Using Web Mining)

  • 김은수;송강수;이원돈;송정길
    • 한국컴퓨터정보학회논문지
    • /
    • 제8권4호
    • /
    • pp.92-103
    • /
    • 2003
  • 최근 전자상거래의 발전과 인터넷 사용자의 급증으로 온라인 상에서 수많은 광고들이 서비스되고 있다. 하지만 이러한 광고서비스는 사용자들의 성향 분석을 기초로 하기보다는 해당 광고의 일방적 서비스에 그치고 있다. 따라서 많은 웹사이트들이 해당 광고의 효율적 서비스를 위해 개인화된 광고서비스를 원하고 있고 해당 서버의 로그 분석을 통한 서비스를 연구 및 시행하고 있다. 본 논문에서는 서버측 로그데이터의 분석이 아닌 로컬 시스템의 로그데이터를 이용하여 사용자의 선호도와 성향을 분석한다. 또한 해당 사이트 별 분류 카테고리를 만들어 해당 분류의 가중치를 부여함으로써 개인화된 광고 시스템을 제안하려고 한다. 사용자의 선호도 분석은 웹 개인화 기법 중 협업 필터링의 대상이 되는 사용자 선호도 정보를 방문 사이트 분류에 사용하고 학습에이전트의 대상이 되는 인터넷 사용자의 행동을 해당 사이트의 방문횟수로 가정하여 사용자의 성향분석을 시도하였다. 사용자의 선호도를 벡터로 표현하고, 성향분석 결과를 단순 적용형태가 아닌 연속적 데이터로 간주하였으며 이전 데이터와 이후 데이터의 성향분석 변화를 제안하는 기법을 이용하여 새롭게 분석하고 피드백 시킴으로써 지속적인 갱신과 적용을 할 수 있도록 제안하였다. 이러한 결과를 통해 해당 분류의 광고들을 선정하고 선정된 광고에 사용자 성향분석과 동일한 과정을 적용시킴으로써 차별화된 광고 서비스를 제공할 수 있는 방법을 제시하였다.

  • PDF

e-SCM 환경에서 업체관리를 위한 웹 로그 분석 및 활용 방안 (Web log analysis and application for managing participants under e-SCM environment)

  • 서준용;김운식;고재문
    • 한국경영과학회:학술대회논문집
    • /
    • 한국경영과학회/대한산업공학회 2003년도 춘계공동학술대회
    • /
    • pp.293-297
    • /
    • 2003
  • 최근 공급사슬관리(SCM)는 인터넷을 기반으로 하는 e-SCM 환경으로 발달하고 있다. e-SCM은 웹을 통한 기업의 원자재 조달에서부터 최종제품이 고객에 이르는 전 과정에 관련된 많은 업무를 효율적으로 관리하는 것으로 공급사슬에 있는 많은 기업의 참여가 요구된다. 본 연구에서는 수주생산기업의 e-SCM 구매시스템에서 구매의도를 지닌 참여기업의 웹 로그 데이터를 분석 및 활용하는 방안을 제시하여 참여기업의 충성도와 수주전략 수립을 위한 방안을 제시하고자 한다.

  • PDF

웹로그 분석 시스템의 마케팅 전환 분석 알고리즘에 관한 연구 (A Study on the Marketing Conversion Analysis Algorithm of Web Log Analytics System)

  • 서민구
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.446-448
    • /
    • 2018
  • 현재 온라인 마케팅 분석을 위해 웹로그 분석시스템을 사용하여 마케팅 결과에 대한 분석을 하고 있지만, 전환에 대한 원인 분석이 사용자의 접속 당시 정보에 의한 데이터로만 분석되고 있어, 본 연구에서는 전환 데이터 분석에 대한 좀 더 현실적으로 분석하기 위한 알고리즘 연구를 제안한다.

웹 로그 데이터의 OLAP 연산을 위한 희박성 분석 (Web Log Data Sparsity Analysis for OLAP)

  • 김지현;용환승
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.58-60
    • /
    • 2001
  • 하루에도 수십 수백 메가 바이트까지 증가하는 웹 로그 데이터를 이용하여 실시간에 다차원분석을 가능하게 하기 위해서는 OLAP의 적용이 필요하다. 하지만 OLAP을 적용하는데 있어서 빠른 응답시간을 얻기 위해 사전처리(Precomputation)를 수행 할 시 심각한 데이터의 희박성으로 인해 데이터 폭발 현상이 발생된다. 본 논문에서는 실제 웹 로그 데이터를 사용하여 OLAP적용 시 희박성을 일으키는 원인들을 밝히고, 2, 3 차원에서의 희박성 형태를 분석함으로써 웹 로그 데이터의 희박성 처리 방식 및 성능평가에 기반이 되게 한다.

  • PDF

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.