• 제목/요약/키워드: 신뢰성 전송

검색결과 1,123건 처리시간 0.022초

자율 주행을 위한 Edge to Edge 모델 및 지연 성능 평가 (Edge to Edge Model and Delay Performance Evaluation for Autonomous Driving)

  • 조문기;배경율
    • 지능정보연구
    • /
    • 제27권1호
    • /
    • pp.191-207
    • /
    • 2021
  • 오늘날 이동통신은 급증하는 데이터 수요에 대응하기 위해서 주로 속도 향상에 초점을 맞추어 발전해 왔다. 그리고 5G 시대가 시작되면서 IoT, V2X, 로봇, 인공지능, 증강 가상현실, 스마트시티 등을 비롯하여 다양한 서비스를 고객들에게 제공하기위한 노력들이 진행되고 있고 이는 우리의 삶의 터전과 산업 전반에 대한 환경을 바꿀 것으로 예상되고 되고 있다. 이러한 서비스를 제공하기위해서 고속 데이터 속도 외에도, 실시간 서비스를 위한 지연 감소 그리고 신뢰도 등이 매우 중요한데 5G에서는 최대 속도 20Gbps, 지연 1ms, 연결 기기 106/㎢를 제공함으로써 서비스 제공할 수 있는 기반을 마련하였다. 하지만 5G는 고주파 대역인 3.5Ghz, 28Ghz의 높은 주파수를 사용함으로써 높은 직진성의 빠른 속도를 제공할 수 있으나, 짧은 파장을 가지고 있어 도달할 수 있는 거리가 짧고, 회절 각도가 작아서 건물 등을 투과하지 못해 실내 이용에서 제약이 따른다. 따라서 기존의 통신망으로 이러한 제약을 벗어나기가 어렵고, 기반 구조인 중앙 집중식 SDN 또한 많은 노드와의 통신으로 인해 처리 능력에 과도한 부하가 발생하기 때문에 지연에 민감한 서비스 제공에 어려움이 있다. 그래서 자율 주행 중 긴급 상황이 발생할 경우 사용 가능한 지연 관련 트리 구조의 제어 기능이 필요하다. 이러한 시나리오에서 차량 내 정보를 처리하는 네트워크 아키텍처는 지연의 주요 변수이다. 일반적인 중앙 집중 구조의 SDN에서는 원하는 지연 수준을 충족하기가 어렵기 때문에 정보 처리를 위한 SDN의 최적 크기에 대한 연구가 이루어져야 한다. 그러므로 SDN이 일정 규모로 분리하여 새로운 형태의 망을 구성 해야하며 이러한 새로운 형태의 망 구조는 동적으로 변하는 트래픽에 효율적으로 대응하고 높은 품질의 유연성 있는 서비스를 제공할 수 있다. 이러한 SDN 구조 망에서 정보의 변경 주기, RTD(Round Trip Delay), SDN의 데이터 처리 시간은 지연과 매우 밀접한 상관관계를 가진다. 이 중 RDT는 속도는 충분하고 지연은 1ms 이하이기에 유의미한 영향을 주는 요인은 아니지만 정보 변경 주기와 SDN의 데이터 처리 시간은 지연에 크게 영향을 주는 요인이다. 특히, 5G의 다양한 응용분야 중에서 지연과 신뢰도가 가장 중요한 분야인 지능형 교통 시스템과 연계된 자율주행 환경의 응급상황에서는 정보 전송은 매우 짧은 시간 안에 전송 및 처리돼야 하는 상황이기때문에 지연이라는 요인이 매우 민감하게 작용하는 조건의 대표적인 사례라고 볼 수 있다. 본 논문에서는 자율 주행 시 응급상황에서 SDN 아키텍처를 연구하고, 정보 흐름(셀 반경, 차량의 속도 및 SDN의 데이터 처리 시간의 변화)에 따라 차량이 관련정보를 요청해야 할 셀 계층과의 상관관계에 대하여 시뮬레이션을 통하여 분석을 진행하였다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

전자기록의 장기보존을 위한 이관절차모형에 관한 연구 (A Study on Transfer Process Model for long-term preservation of Electronic Records)

  • 천권주
    • 기록학연구
    • /
    • 제16호
    • /
    • pp.39-96
    • /
    • 2007
  • 기록관리 환경이 점차 자동화되고 효율성과 편리성을 보장해 주는 여러 가지 어플리케이션이 개발 보급됨으로써 기록은 사이버 공간에서도 생산, 관리될 수 있게 되었다. 이러한 상황에서 기록의 전자적 관리와 이관조항이 담긴 개정 법령이 시행된 점은 새로운 개념의 패러다임을 이행하려는 적절한 조치였다. 그러나 개정된 "공공기록물관리에관한법률"(이하 기록관리법)에서의 전자이관은 일반적인 개념만을 제시한 것으로 구체적인 실행방안과 절차가 조속히 마련되어야 한다. 기록을 이관한다는 것은 가치 있는 기록을 먼 훗날에도 이용하기 위해 수행하는 기록관리 과정의 일부이다. 따라서 기록을 생산한 생산자와 이관 받을 기관이 상호 협력하여 기록 자체와 그 맥락을 온전히 유지하면서 기준과 원칙에 따라 장기보존시설로 옮겨 보존해야 한다. 결국, 이관의 문제는 일정한 절차 속에서 있는 그대로의 기록을 신뢰할 수 있도록 아카이브로 옮겨서 장기보존 가능하도록 하는 것으로 귀결된다. 이를 위해, 모든 디지털 객체의 장기보존을 위한 표준인 OAIS 참조모형의 기능모델과 미항공우주국의 우주데이터 시스템 위원회(CCSDS : Consultative committee for Space Data Systems)에서 개발한 '생산자-아카이브 인터페이스 표준방법론(Producer-Archive Interface Methodology Abstract Standard-CCSDS Blue Book)'을 연구 분석하여 기록물관리기관간의 전자기록 이관을 위한 근거를 마련하였다. 또한 해외의 다양한 이관사례를 통해 표준과 실제의 갭을 최소화하고자 하였다. 결론적으로 '이관준비 ${\rightarrow}$ 전송(접수) ${\rightarrow}$ 검증 ${\rightarrow}$ 보존처리 ${\rightarrow}$ 저장소 저장'이라는 5단계와 단계별 하위절차로 구성되는 이관절차모형을 제안하였으며, 한국의 전자기록 이관구조를 '(특수)기록관에서 영구기록물관리기관으로의 이관'과 '민간부문에서 기록물관리기관으로의 이관'으로 구분하고 설계된 표준절차모형을 적용함으로써 실행 가능성을 입증해 보았다.