• Title/Summary/Keyword: 오류데이터

Search Result 1,770, Processing Time 0.028 seconds

An Error Control for Media Multi-channel based on Session Initiation Protocol (세션 초기 프로토콜 환경에서의 미디어 다채널을 위한 오류 제어)

  • Ko, Eung-Nam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.05a
    • /
    • pp.152-155
    • /
    • 2008
  • 본 논문에서는 멀티미디어 응용 개발 프레임워크의 세션 초기 프로토콜(SIP: Session Initiation Protocol)에서 다채널 방식을 사용한다. 우선 기본적으로 문자 채널과 제어/오류 제어 채널을 고정할당하며 미디어의 채널을 동적 할당한다. 고정할당 채널은 채널요청이 없어도 세션 개설 요청이 있으면 자동적으로 생성하며, 미디어 데이터는 별도의 채널을 할당하여 채널 별로 단일 미디어 정보를 순서대로 전송 함으로서 동일 미디어 데이터는 순서가 변할 우려는 없다. 그러나 이러한 다채널방식에서는 미디어간 동기화 문제를 유발 시키는데 수신 측에서는 새로 발생된 데이터의 시작 시점을 서로 맞춤으로서 미디어간 동기화를 실현하였다. 새로운 미디어의 시작 시 항상 제어 데이터를 먼저 전송하여 새로운 미디어 데이터의 생성을 모든 참여자 프로세스에 알린다. 수신 측에서는 새로 발생된 데이터의 시작 시점을 서로 맞춤으로서 미디어간 동기화를 실현한다. 오류의 동기화도 동일한 방법을 사용한다.

A Data Fault Attack on the Miller Algorithm for Pairing Computation in Mobile Ad-Hoc Network Environments (이동 Ad-Hoc 네트워크 환경에서 페어링 연산의 밀러 알고리듬에 대한 데이터 오류 공격)

  • Bae, KiSeok;Sohn, GyoYong;Park, YoungHo;Moon, SangJae
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.2
    • /
    • pp.70-79
    • /
    • 2013
  • Recently, there has been introduced various types of pairing computations to implement ID based cryptosystem for mobile ad hoc network. The Miller algorithm is the most popular algorithm for the typical pairing computation such as Weil, Tate and Ate. In this paper, we analyze the feasibility of concrete data fault injection attack, which was proposed by Whelan and Scott, in terms of regardless of round positions during the execution of the Miller algorithm. As the simulation results, the proposed attack that can be employed to regardless of round positions and coordinate systems is effective and powerful.

The study on error, missing data and imputation of the smart card data for the transit OD construction (대중교통 OD구축을 위한 대중교통카드 데이터의 오류와 결측 분석 및 보정에 관한 연구)

  • Park, Jun-Hwan;Kim, Soon-Gwan;Cho, Chong-Suk;Heo, Min-Wook
    • Journal of Korean Society of Transportation
    • /
    • v.26 no.2
    • /
    • pp.109-119
    • /
    • 2008
  • The number of card users has grown steadily after the adaption of smart card. Considering the diverse information from smart card data, the increase of card usage rate leads to various useful implications meaning in travel pattern analysis and transportation policy. One of the most important implications is the possibility that the data enables us to generate transit O/D tables easily. In the case of generating transit O/D tables from smart card data, it is necessary to filter data error and/or data missing. Also, the correction of data missing is an important procedure. In this study, it is examined to compute the level of data error and data missing, and to correct data missing for transit O/D generation.

Developing dirty data cleansing service between SOA-based services (SOA 기반 서비스 사이의 오류 데이터 정제 서비스 개발)

  • Ji, Eun-Mi;Choi, Byoung-Ju;Lee, Jung-Won
    • The KIPS Transactions:PartD
    • /
    • v.14D no.7
    • /
    • pp.829-840
    • /
    • 2007
  • Dirty Data Cleansing technique so far have aimed to integrate large amount of data from various sources and manage data quality resided in DB so that it enables to extract meaningful information. Prompt response to varying environment is required in order to persistently survive in rapidly changing business environment and the age of limitless competition. As system requirement is recently getting complexed, Service Oriented Architecture is proliferated for the purpose of integration and implementation of massive distributed system. Therefore, SOA necessarily needs Data Exchange among services through Data Cleansing Technique. In this paper, we executed quality management of XML data which is transmitted through events between services while they are integrated as a sole system. As a result, we developed Dirty Data Cleansing Service based on SOA as focusing on data cleansing between interactive services rather than cleansing based on detection of data error in DB already integrated.

Asymmetric data storage management scheme to ensure the safety of big data in multi-cloud environments based on deep learning (딥러닝 기반의 다중 클라우드 환경에서 빅 데이터의 안전성을 보장하기 위한 비대칭 데이터 저장 관리 기법)

  • Jeong, Yoon-Su
    • Journal of Digital Convergence
    • /
    • v.19 no.3
    • /
    • pp.211-216
    • /
    • 2021
  • Information from various heterogeneous devices is steadily increasing in distributed cloud environments. This is because high-speed network speeds and high-capacity multimedia data are being used. However, research is still underway on how to minimize information errors in big data sent and received by heterogeneous devices. In this paper, we propose a deep learning-based asymmetric storage management technique for minimizing bandwidth and data errors in networks generated by information sent and received in cloud environments. The proposed technique applies deep learning techniques to optimize the load balance after asymmetric hash of the big data information generated by each device. The proposed technique is characterized by allowing errors in big data collected from each device, while also ensuring the connectivity of big data by grouping big data into groups of clusters of dogs. In particular, the proposed technique minimizes information errors when storing and managing big data asymmetrically because it used a loss function that extracted similar values between big data as seeds.

해양사고 인적오류 예방을 위한 해심 주제어 분석에 관한 고찰

  • Jang, Eun-Jin;Gang, Yu-Mi;Im, Jeong-Bin
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2016.05a
    • /
    • pp.196-198
    • /
    • 2016
  • 해양사고 원인의 대부분을 차지하는 인적오류 예방은 해양안전에 가장 중요하며 인적오류는 확률기반의 인적 모델을 구축하여 평가할 수 있다. 확률기반 인적 모델을 구축하기 위해 사건의 원인과 결과 사이에 연계성을 갖고 있는 통계 데이터가 필요하다. 이러한 데이터는 정부 공식통계로서 해양안전심판원에서 제공하는 재결서의 내용 분석을 통해 얻고자 하나, 측정변수가 너무 많아 계산량이 방대하다. 본 연구에서는 재결서 분석서의 원인판단에서 기준이 되는 해양안전심판원의 해양사고조사심판정보포털(이하 해심)에서 제공하는 재결서 내용의 핵심적인 내용으로 구성된 '주제어 '데이터를 활용하여 주제어에 포함된 핵심단어 분석절차를 수립하였다. 이들 단어가 구분형태별로 어떻게 분포된 상태인지 알아보고, 선박사고별로 최적으로 설명할 수 있는 단어 객체수를 검토해보고자 한다. 향후 축소된 차원으로도 해양사고 인적과실의 인과관계 설명이 가능하면, 인적모델의 측정변수를 결정하는 경우 쉽게 타당성을 확인 할 수 있어 해양안전을 위한 중요한 자료로 활용할 수 있다.

  • PDF

무선 ATM 망의 버스트 오류에 대한 효율적인 전송 방식에 대한 연구

  • 김중규;김용진
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.3 no.1
    • /
    • pp.239-255
    • /
    • 1998
  • 멀티미디어 초고속정보통신망 구축을 위한 가장 적합한 통신방식은 ATM(Asynchronous Transfer Model)으로 음성,영상, 데이터를 실시간, 비실시간 데이터로 구분하여 복합적으로 전송할 수있다. ATM 망은 유선 ATM망과 무선 ATM망으로 나누어지는데 무선 ATM 망의 가장 큰 차이점은 이동성과 전송 환경의 특성으로 발생하는 오류 확률이다. 따라서 무선 ATM 망에서 증가된 오류율을 유선 ATM망 수준으로 감소시키는 것이 매우 필요하다. 본 논문에서는 무선전송환경의 버스트오류에 효과적인 인터리빙 기법을 무선 전송단의 한정된 대역폭에 할당되는 ATM 셀의 가상 회선/경로의 수만감소시켜 일반 ATM 셀과의 연동성을 보장하는 인터리빙 수정 셀 방법을 제안하고 이의 성능을 분석한다. 분석결과 본 논문에서 제안한 방법을 사용하는 경우, 기존 셀에 추가되는 오버헤더 없이 전송성능이 향상되었으며, HARQ(Hybrid Automatic Request)를 적용했을 때 불가능한 실시간 데이터서비스도 가능한 것으로 나타났다.

Fault Detection of Reactive Ion Etching Using Time Series Support Vector Machine (Time Series Support Vector Machine을 이용한 Reactive Ion Etching의 오류검출 및 분석)

  • Park Young-Kook;Han Seung-Soo;Hong Sang-J.
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2006.05a
    • /
    • pp.247-250
    • /
    • 2006
  • Maximizing the productivity in reactive ion etching, early detection of process equipment anomaly became crucial in current high volume semiconductor manufacturing environment. To address the importance of the process fault detection for productivity, support vector machines (SVMs) is employed to assist the decision to determine process faults in real-time. SVMs for eleven steps of etching runs are established with data acquired from baseline runs, and they are further verified with the data from controlled (acceptable) and perturbed (unacceptable) runs. Then, each SVM is further utilized for the fault detection purpose utilizing control limits which is well understood in statistical process control chart. Utilizing SVMs, fault detection of reactive ion etching process is demonstrated with zero false alarm rate of the controlled runs on a run to run basis.

  • PDF

Implementation of AAL type5 protocol processor for processing of IP data packet (IP data packet을 처리하기 위한 AAL type5 프로토콜 프로세서 구현)

  • Park, Jae-Hyeon;Choi, Myung-Ryul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10b
    • /
    • pp.1379-1382
    • /
    • 2001
  • 본 논문에서는 ATM 망에서의 통합 네트워크 구현을 위한 IP data packet를 처리하기 위한 AAL type5 프로토콜 프로세서를 설계 및 구현하였다. AAL 계층의 중요 기능들은 ITU-T Recommendation 1.363과 1.363.5 에 근거하여 설계하였다. AAL 계층의 주요한 역할은 데이터의 Segmentation 및 셀의 Reassembly를 하는 것으로, Segmentation 과정에서는 상위 계층의 연속적인 데이터를 Segmentation하여 53-byte 크기의 ATM 셀을 구성하는 기능이다. Reassembly 과정에서는 들어오는 셀들을 연속적인 데이터로 만들어 AAL 계층 보다 상위 계층으로 전달하는 것이다. 이 과정에서 셀의 Header 를 확인한 후 crc-32를 통한 오류 검정을 거치게 되며, 데이터에 오류가 있을 경우에는 해당 셀을 버리고 오류가 없을 시에만 상위 계층으로 전달한다. 본 논문에서 구현한 AAL Type 5 프로세서는 향후 모든 Type의 data를 수용하는 칩 개발에 유용할 것으로 사료된다. 본 논문에서 원할한 테스트를 위해 데이터의 loop back 신호 DLB를 사용했다 VHDL 해석기로는 Synopsys 사의 VHDL Analyzer를 사용하였고, Design Compiler로 회로를 합성하였다.

  • PDF

Use of Probability Distribution of Speed derived from Positioning Data (위치 데이터에서 유도된 속도의 확률분포)

  • On, Kyoung-Woon;Lee, Jun-Seok;Song, Ha Yoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1092-1095
    • /
    • 2013
  • 오늘날 모바일 스마트 기기의 발전은 위치기반의 새로운 기술을 이끌었다. 현재 위치 데이터를 사용하는 많은 응용프로그램들이 소개되었고, 또한 널리 사용되고 있다. 하지만 아직 이러한 위치 데이터들은 환경적인 요소 등으로 인해 오류가 많다. 우리는 이전 연구에서 위치 데이터의 오류 검출 및 교정 알고리즘을 제안하였다. 또 다른 연구에선 인간의 이동속도가 어떠한 확률분포모델을 따르는지 연구하였다. 그리하여 본 논문에서는 인간의 이동속도의 분포로서 적합하다고 판명된 확률분포모델 중 Lognormal 분포, Gamma 분포, Weibull분포를 선택하여 위치데이터 오류 검출 및 교정 알고리즘에 적용하기 위한 확률분포 계산을 제안한다. 그 중 일부는 계산의 복잡도를 낮추기 위해 확률분포표를 제공할 것이다.