• 제목/요약/키워드: Log server

검색결과 172건 처리시간 0.024초

네트워크를 이용한 AM1 로봇의 원격 동적 제어 (Remote Dynamic Control of AM1 Robot Using Network)

  • 김성일;윤신일;배길호;이진;한성현
    • 한국공작기계학회:학술대회논문집
    • /
    • 한국공작기계학회 2002년도 춘계학술대회 논문집
    • /
    • pp.556-560
    • /
    • 2002
  • In this paper, we propose a remote controller for robot manipulator using local area network(LAN) and internet. To do this, we develope a server-client system as used in the network field. The client system is in any computer in remote place for the user to log-in the server and manage the remote factory. the server system is a computer which controls the manipulator and waits for a access from client. The server system consists of several control algorithms which is needed to drive the manipulator and networking system to transfer images that shows states of the work place, and to receive a Tmp data to run the manipulator The client system consists of 3D(dimension) graphic user interface for teaching and off-line task like simulation, external hardware interface which makes it easier for the user to teach. Using this server-client system, the user who is on remote place can edit the work schedule of manipulator, then run the machine after it is transferred and monitor the results of the task.

  • PDF

클라이언트/서버 데이터베이스 시스템에서 역방향 로그 분석을 이용한 로그 관리 (Log Management Using Backward Log Analysis in Client-Server Database System)

  • 이찬섭;박용문;고병오;최의인
    • 한국통신학회논문지
    • /
    • 제25권11B호
    • /
    • pp.1928-1938
    • /
    • 2000
  • 기존 데이터베이스 시스템에서 사용되는 회복 기법들은 시스템 파손 시 빠른 회복을 지원하기 위해서 물리적 로깅(physical logging)을 사용한다. 그러나 이런 기법들을 클라이언트/서버 환경에 그대로 적용할 경우에는 여러 가지 문제점이 발생된다. 물리적 기법의 경우에는 로그 분석 시 before-image와 after-image의 중복이 발견된다는 문제점이 있으며, 기존의 대부분 회복 기법들은 시스템 파손 시 전방향(forward)으로 로그를 분석함으로써 불필요한 회복 동작이 존재할 수 있다. 또한 시스템 회복 시 로그 접근 횟수의 증가로 인해 회복 속도가 늦어지는 문제점이 있다. 이 논문에서는 이런 문제점을 해결하고 클라이언트/서버 환경에 적합한 회복 기법을 제안하기 위해 중복된 before-image를 제거하고 재수행 전용 로그 레코드(redo-only log record)만을 로그에 기록함으로써 로깅 오버헤드를 감소시키면서 로그 분석 시간을 감소시킨 역방향 로그 분석 기법을 제안하였다. 또한 로그 분석 시 유지해야 하는 자료구조의 오버헤드를 최소화했다. 마지막으로 제안된 기법과 기존의 기법을 비교 분석하였다.

  • PDF

웹 로그 화일에서 순회 패턴 탐사를 위한 시스템 (A System for Mining Traversal Patterns from Web Log Files)

  • 박종수;윤지영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.4-6
    • /
    • 2001
  • In this paper, we designed a system that can mine user's traversal patterns from web log files. The system cleans an input data, transactions of a web log file, and finds traversal patterns from the transactions, each of which consists of one user's access pages. The resulting traversal patterns are shown on a web browser, which can be used to analyze the patterns in visual form by a system manager or data miner. We have implemented the system in an IBM personal computer running on Windows 2000 in MS visual C++, and used the MS SQL Server 2000 to store the intermediate files and the traversal patterns which can be easily applied to a system for knowledge discovery in databases.

  • PDF

Multitier 웹 어플리케이션 환경에서 악의적인 SQL Query 탐지를 위한 HTTP Request - SQL Query 매핑 기법 (HTTP Request - SQL Query Mapping Scheme for Malicious SQL Query Detection in Multitier Web Applications)

  • 서영웅;박승영
    • 정보과학회 논문지
    • /
    • 제44권1호
    • /
    • pp.1-12
    • /
    • 2017
  • 지속적으로 증가하는 인터넷 서비스 요구사항을 만족하기 위하여 인터넷 서비스를 제공하는 시스템은 웹 서버와 DB(database) 서버로 구성된 multitier 구조로 변화되어왔다. 이러한 multitier 웹 어플리케이션 환경에서 기존의 IDS(intrusion detection system)는 웹 서버와 DB 서버에서 misused traffic pattern들이나 signature들을 매칭하여 이미 알려진 공격을 검출하고 해당 접속을 차단하는 방식으로 동작한다. 하지만 이러한 방식의 IDS는 정상적인 HTTP(hypertext transfer protocol) request를 이용하여 악의적으로 DB 서버의 내용의 변조를 시도하는 attacker의 공격을 DB 서버단에서 제대로 검출하지 못한다. 그 이유는 DB 서버는 웹 서버로부터 받은 SQL(structured query language) query가 어떤 사용자의 HTTP request에 의해 발생한 것인지 알지 못하는 상태에서 처리하며, 웹 서버는 SQL query 처리 결과 중 어떤 것이 악의적으로 DB 서버 변조를 시도한 SQL query에 의한 결과인지 알 수 없기 때문이다. 이런 공격을 검출하기 위해서는 HTTP request와 SQL query 사이의 상호작용관계를 명확히 파악하고, 이를 이용하여 악의적인 SQL query를 발생시킨 사용자를 추적해야 한다. 이를 위해서는 해당 시스템의 소스코드를 분석하거나 application logic을 완벽하게 파악해야 하므로 현실적으로 불가능하다. 본 논문에서는 웹 서버와 DB 서버에서 제공하는 로그만을 이용하여 모든 HTTP request와 SQL query간의 mapping 관계를 찾아내고, 이를 이용하여 특정 SQL query를 발생시킨 HTTP request를 추정하는 기법을 제안한다. 모의실험을 통하여 94%의 정확도로 HTTP request를 추정할 수 있음을 확인하였다.

분산 환경을 위한 중복데이타 서버(replication server) 구조에 관한 연구

  • 이종호;이우기;박주석;강석호
    • 한국데이타베이스학회:학술대회논문집
    • /
    • 한국데이타베이스학회 1994년도 DB산업기술 활성화를 위한 학술대회 및 기술 심포지움
    • /
    • pp.71-103
    • /
    • 1994
  • 중복데이타 서버(replication server) 는 자주 사용되는 데이타의 부분 또는 전부를 뷰 형태로 여러 지역에 중복하여 저장함으로써 최종 사용자가 원하는 데이터에 빨리 접근할 수 있도록 해준다. 또한 기본 테이블의 변화된 내용을 주기적으로 뷰에 반영함으로써 데이타 동시성의 문제를 완화하며 통신량을 감소시킬 수 있다. 본 연구에서는 기본 테이블에 일어난 변화를 저장뷰(materialized view)에 반영시켜주기 위해 테이블 전체를 읽는 방식을 피하고 일정기간 동안 테이블에 일어난 변화가 기록된 로그(log)를 이용하는 디프런셜 갱신(differential update) 방법을 사용한다. 이 방법은 테이블의 잠금(locking) 을 피함으로 시스템의 성능을 향상시 킬 수 있다. 또한 갱신에 관련된 통신량을 최소화하기 위한 기법들을 제안한다. 위의 방법을 이용하여 분산 상황에서 조인 저장뷰(join materialized view)의 갱신을 효과적으로 지원해 주는 중복데이타 서버(replication server)의 구조에 관해 연구한다.

  • PDF

역추적 에이전트를 이용한 역추적 시스템 설계 및 구현 (Design and Implementation of a Traceback System based on a Traceback Agent)

  • 정종민;이지율;이구연
    • 산업기술연구
    • /
    • 제22권B호
    • /
    • pp.147-153
    • /
    • 2002
  • It is very important to detect and remove original sources of DOS (Denial of Service) attacks or connection oriented/connectionless attacks. In this paper, we implement a traceback system that does not require the reaction of routers and administrators and does not need log data. We bring in a traceback server and traceback agents in each network and use sniffing and spoofing schemes. Finally, the traceback server detects attacking hosts using information transmitted from traceback agents.

  • PDF

그리드 포탈에서 Myproxy 이용시 동일 ID 중복문제 해결방안 (A solution of ID-overlapping in using Myproxy Server in GRID Portal)

  • 이관옥;안동언;정성종;장행진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 컴퓨터소사이어티 추계학술대회논문집
    • /
    • pp.219-222
    • /
    • 2003
  • Increasingly, Grid technics are developed and demonstrated widely. These days, a point to be considered is that clients use Grid resources more easily. Grid Portals, based on standard Web technologies, are increasingly used to provide user interfaces for using Grid resources. But, due to lack of delegation capabilities in using Grid resources through Grid Portals, it is requested of the security mechanisms. That solution is to using Myproxy Server. Myproxy Server allows Grid user to use Grid resources being interact with Grid Portals. But, while users log in Grid Portals, we are faced with over the overlap of users credentials. This paper describes relationship between Portals and Myproxy, and proposes the way to solve the problem of the overlap of users credentials.

  • PDF

패킷 마이닝 기법을 사용한 인터넷 서버 프로파일의 자동생성 연구 (Generation of Internet Server Profile Using Packet Mining)

  • 곽미라;조동섭
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 합동 추계학술대회 논문집 정보 및 제어부문
    • /
    • pp.39-41
    • /
    • 2002
  • Management of internal Internet servers is increasingly becoming an important task. According to meet this requirement, they use service log analysis tools and network monitoring tools. But these are not enough to produce advanced management information considering contents of Internet services. Therefor we propose a system and let it detect Internet server systems existing in internal network and individuate those systems with providing profile. Internet server profile includes system's basic information, network traffic information, and Internet service usage information.

  • PDF

클라우드 환경에서의 효율적인 빅 데이터 처리를 위한 로그 데이터 수집 아키텍처 (An Efficient Log Data Management Architecture for Big Data Processing in Cloud Computing Environments)

  • 김주리;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권2호
    • /
    • pp.1-7
    • /
    • 2013
  • 최근 빅 데이터 관리가 정보기술 분야의 학계와 업계에서 중요한 이슈로 떠오르고 있다. 빅 데이터 중 소프트웨어 시스템에서 필연적으로 생성되는 대표적인 유형 중 하나가 로그 데이터이다. 로그 데이터는 서비스 제공자가 더 나은 서비스를 제공하고 소프트웨어의 품질을 향상시키기 위해 필요하다. 따라서 적절한 방법으로 로그 데이터를 수집하고 이를 분석할 수 있는 인프라 환경을 구축하는 것은 매우 중요하다. 본 논문은 로그 데이터에 특화된 새로운 빅 데이터 관리 기법을 제안한다. 제안하는 기법은 다수의 클라이언트 어플리케이션에서 생성되는 로그 데이터를 네트워크를 통해 전송하고 이를 실시간으로 저장한 후 분석할 수 있는 아키텍처를 제공한다. 해당 아키텍처는 서버-클라이언트 환경에서 로그의 비동기적인 처리를 지원하여 원격 로깅임에도 불구하고 데이터 처리의 병목 현상이나 클라이언트의 성능 저하를 발생시키지 않는다. 제안하는 기법을 실제 시스템에 구현하고 실측한 결과 확장성 있는 로그 데이터 관리가 이루어짐을 확인하였다. 특히, 본 논문에서는 모든 구현을 오픈소스 소프트웨어에 기반하여 수행했으며, 개발 프로토타입 또한 오픈소스 소프트웨어 형태로 공개하여 누구나 사용할 수 있도록 하였다.

OAuth를 이용한 로그아웃 문제로 인한 취약점 방지 기법에 대한 연구 (A Study on Vulnerability Prevention Mechanism Due to Logout Problem Using OAuth)

  • 김진욱;박정수;응웬부렁;정수환
    • 정보보호학회논문지
    • /
    • 제27권1호
    • /
    • pp.5-14
    • /
    • 2017
  • 많은 웹 서비스가 OAuth 프로토콜을 이용하여 리소스 서버로부터 프로필 정보를 전달받아 사용자를 로그인시켜주는 형태로 제공되어 추가적인 회원가입의 불편함을 줄여주고 있다. 하지만, 작업을 종료한 사용자가 클라이언트 웹 서비스를 로그아웃하더라도 리소스 서버가 로그인 상태로 남아 사용자의 개인정보 및 리소스 서버 자원 유출에 대한 문제가 발생할 수 있다. 본 논문에서는 OAuth 프로토콜을 통해 로그인한 사용자가 클라이언트에서 로그아웃할 경우, 리소스 서버의 로그인 상태에 관한 알림을 통하여 사용자가 리소스 서버의 로그아웃 여부를 판단할 수 있도록 설계 및 구현하였다. 본 논문에서 제안하는 방법을 활용하여 OAuth 프로토콜을 통해 로그인한 사용자가 도서관, 백화점, 인쇄소와 같이 여러 사용자가 이용하는 공용 PC 환경에서 리소스 서버에 로그아웃 여부를 확인하지 않아 발생할 수 있는 정보유출 문제를 줄이고 리소스 서버의 자원을 보호할 수 있다.