• 제목/요약/키워드: 후처리데이터

검색결과 1,898건 처리시간 0.033초

Active Node내에서의 QoS향상을 위한 패킷 보안 메커니즘 (A Packet security mechanism for Improving QoS in Active Node)

  • 최정희;신미예;이동희;이상호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.619-621
    • /
    • 2001
  • 현재 대부분의 액티브 네트워크에서 액티브 노드로 전송된 패킷은 프로그램 코드와 데이터를 동시에 가지고 있으며, 기존 네트웍 방식에서의 저장(store)-전송(forward) 형태와는 달리 저장(store)-연산(compute)-전송(forward) 방식으로 패킷 처리를 한다 이 과정에서 패킷에 악성 코드가 추가되거나 실제 데이터가 변경되는 경우에는 데이터의 무결성을 보장할 수 없다. 따라서 이 논문에서는 액티브 노드에 들어오는 패킷과 그 노드에서 처리가 이루어진 후 나가는 패킷을 비교하여 악의적이거나 악의 적이지는 않지만 실수로 인한 패킷의 오류를 방어함으로서 액티브 노드의 QoS를 향상시켜주는 방식을 제안한다.

  • PDF

가속 센서를 이용한 3D 마우스의 구현 (Implementation of 3D Mouse using Accelerometer)

  • 이지안
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.498-500
    • /
    • 2015
  • 본 논문에서는 가속 센서의 데이터로부터 얻은 정보를 특정 알고리즘을 통해 3D 공간상에서 좌표를 매핑(Mapping)하는 3D 마우스를 제안한다. 손의 움직임에 따라 변화하는 가속도 값을 블루투스 통신을 사용하여 모바일 디바이스(Mobile Device)로 전송한다. 본 논문에서 제안하는 3D 마우스는 손에 든 가속도 센서 데이터를 사용하여 손이 움직이기 전의 위치를 기준으로 가속도 데이터를 토대로 움직인 후의 위치를 추출하여 3D 공간 상에서의 마우스를 구현하였다. 10명의 사용자에게 마우스를 동일한 시작점에서 정해진 목표지점까지 움직이도록 실험해 본 결과 평균 2.23번 만에 성공하였다.

KOMSAR의 실측데이터를 이용한 표적 식별 (Recognition of Targets Using the Measured Data of KOMSAR)

  • 최인오;박상홍
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.1010-1011
    • /
    • 2013
  • 본 논문에서는 국방과학연구소에서 운용하는 KOMSAR(Korea Miniature Synthetic Aperture Radar)장비로 측정한 실제 항공기의 데이터를 이용하여 효율적인 표적식별을 수행하였다. 표적식별과정은 수신된 모든 데이터에 대하여 거리측면도를 구한 다음 4개의 표적으로 분리한 후, 효과적인 특성벡터를 구성하여 nearest neighbor(NN) 구분기로 표적식별 성능을 수행하였다. 표적식별수행 결과, 높은 구분성능으로 구분이 가능하였다.

비정형 텍스트 데이터 정제를 위한 불용어 코퍼스의 활용에 관한 연구 (A Study on the Use of Stopword Corpus for Cleansing Unstructured Text Data)

  • 이원조
    • 문화기술의 융합
    • /
    • 제8권6호
    • /
    • pp.891-897
    • /
    • 2022
  • 빅데이터 분석에서 원시 텍스트 데이터는 대부분 다양한 비정형 데이터 형태로 존재하기 때문에 휴리스틱 전처리 정제와 컴퓨터를 이용한 후처리 정제과정을 거쳐야 분석이 가능한 정형 데이터 형태가 된다. 따라서 본 연구에서는 텍스트 데이터 분석 기법의 하나인 R 프로그램의 워드클라우드를 적용하기 위해서 수집된 원시 데이터 전처리를 통해 불필요한 요소들을 정제하고 후처리 과정에서 불용어를 제거한다. 그리고 단어들의 출현 빈도수를 계산하고 출현빈도가 높은 단어들을 핵심 이슈들로 표현해 주는 워드클라우드 분석의 사례 연구를 하였다. 이번 연구는 R의워드클라우드 기법으로 기존의 불용어 처리 방법인 "내포된 불용어 소스코드" 방법의 문제점을 개선하기 위하여 "일반적인 불용어 코퍼스"와 "사용자 정의 불용어 코퍼스"의 활용 방안을 제안하고 사례 분석을 통해서 제안된 "비정형 데이터 정제과정 모델"의 장단점을 비교 검증하여 제시하고 "제안된 외부 코퍼스 정제기법"을 이용한 워드클라우드 시각화 분석의 실무적용에 대한 효용성을 제시한다.

비즈니스 인텔리전스를 위한 XMDR-DAI 설계 관한 연구 (A Study on XMDR-DAI Design for Business Intelligence)

  • 문석재;신효영;정계동;최영근
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 추계학술발표대회
    • /
    • pp.153-154
    • /
    • 2009
  • 최근 기업은 저장된 데이터를 비즈니스 인텔리전스 기반으로 통합하고 분석한다. 이를 위해서 기업들은 ETL(Extraction, Transformation, Loading) 기술을 이용하여 다양한 소스로부터 데이터를 추출하여 변환한 후 데이터웨어하우스에 저장한다. 그러나 데이터웨어하우스/데이터 마트 기반 비즈니스 인텔리전스 프로젝트들은 기존의 사용하던 툴이 기능상의 한계를 드러내면서 시스템 통합, 마이그레이션, 동기화 등의 어려움이 있다. 특히, 서로 다른 ETL 툴을 사용하는 경우 메타데이터의 통합, 데이터 실시간 동기화 기술, 데이터 표준화, 데이터 매칭 등이 어려워 부분적으로만 지원되고 있는 실정이다. 본 논문에서는 다양한 데이터 통합 및 추출, 변환하여 데이터웨어하우스에 저장할 수 있는 XMDR-DAI를 제안한다.

하둡을 이용한 3D 프린터용 대용량 데이터 처리 응용 개발 (Development of Application to Deal with Large Data Using Hadoop for 3D Printer)

  • 이강은;김성석
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권1호
    • /
    • pp.11-16
    • /
    • 2020
  • 3D 프린팅은 주목받는 신기술의 하나로 많은 관심을 받고 있다. 3D 프린팅을 하기 위해서는 먼저 3D 모델을 생성한 후, 이를 프린터가 인식할 수 있는 G-code로 변환하여야 한다. 대개 3D 모델은 페이셋이라고 하는 조그만 삼각형으로 면을 표현하는데, 모델의 크기나 정밀도에 따라 페이셋의 개수가 매우 많아져서 변환에 많은 시간이 걸리게 된다. 아파치 하둡은 대용량 데이터의 분산처리를 지원하는 프레임워크로서 그 활용 범위가 넓어지고 있다. 본 논문에서는 3D 모델을 G-code로 변환하는 작업을 효율적으로 수행하기 위해 하둡을 활용하고자 한다. 이를 위해 2단계의 분산 알고리즘을 개발하였다. 이 알고리즘은 여러 페이셋들을 먼저 Z축 값으로 정렬한 후, N등분하여 여러 노드에서 독립적으로 분산처리하도록 되어 있다. 실제 분산처리는 전처리 - 하둡의 Map - Shuffling - Reduce의 4 단계를 거쳐 구현되었다. 최종적으로 성능 평가를 위해 테스트용 3D 모델의 크기와 정밀도에 따른 처리 시간의 효율성을 보였다.

메모리 캐싱 저장소를 이용한 대규모 워크플로우 모델 데이터 처리 메커니즘 (The Large Scale Workflow Model Data Process Mechanism Using Memory Cashing Repository)

  • 박민재;심성수;정재우;안형진;김민홍;김광훈
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.686-688
    • /
    • 2003
  • 워크플로우 시스템의 핵심을 이루고 있는 엔진의 효율성을 극대화 시키기 위하여, 워크플로우 시스템 엔진 안에서 운용되는 데이터의 관리는 매우 중요하다. 본 논문에서는 워크를로우 시스템에서 운용되는 각 시스템 데이터의 특징을 고찰 한 후, 일반적으로 사용하는 데이터 베이스 시스템 호출을 통해 데이터를 관리하는 방법을 보완 할 수 있는 방법을 제시한다. 그 방법으로 각 시스템 데이터가 가지고 있는 특성에 맞추어 기존의 데이터 베이스 호출을 통한 방법에 메모리에 데이터를 로드시켜 공용적으로 사용하는 방법을 더해 시스템 데이터를 관리하는 방법을 기술한다.

  • PDF

3상 250레벨 MMC HVDC의 네트워크 데이터 전송량에 대한 연구 (Research on the 3-phase 250-level MMC HVDC network data transfer)

  • 조철현;박성준
    • 전력전자학회:학술대회논문집
    • /
    • 전력전자학회 2013년도 추계학술대회 논문집
    • /
    • pp.19-20
    • /
    • 2013
  • 3상 250레벨의 MMC형 HVDC시스템의 구현에서는 한 개의 상마다 500여개의 SM(sub module)이 필요하게 되고 MM(master module)에서 10Khz의 샘플링을 처리한다고 하면 100us동안에 500여개의 SM에서 각종 데이터를 받아서 처리한 후에 다시 SM에 처리된 정보를 전송해 줘야한다. 따라서 SM에서 데이터를 받고 전송하는데 따른 100us 동안의 필요한 처리양과 네트워크의 속도 및 오버헤드(overhead)등의 구성과 토포로지에 관해 알아보았고, 이를 적용하여 멀티레벨의 HVDC에 필요한 데이터 네트워크에의 전송량 계산에 대한 소프트웨어를 제작하여 손쉽게 설계할 수 있도록 하였다.

  • PDF

리프팅 스킴의 2차원 이산 웨이브릿 변환 하드웨어 구현을 위한 고속 프로세서 구조 및 2차원 데이터 스케줄링 방법 (A Fast Processor Architecture and 2-D Data Scheduling Method to Implement the Lifting Scheme 2-D Discrete Wavelet Transform)

  • 김종욱;정정화
    • 대한전자공학회논문지SD
    • /
    • 제42권4호
    • /
    • pp.19-28
    • /
    • 2005
  • 본 논문에서는 리프팅 스킴의 2차원 고속 웨이블릿 변환에서 2차원 처리 속도를 향상시키고, 내부 메모리 사이즈를 감소시키는 병렬 처리 하드웨어 구조를 제안한다. 기존의 리프팅 스킴을 이용한 병력 처리 2차원 웨이블릿 변환 구조는 행 방향의 예측, 보상 연산 모듈과 열 방향의 예측 보상 연산 모듈로 구성되며, 2차원 웨이블릿에서 역 방향 변환을 위해서는 행 방향의 결과가 나와야 하고, 열 방향 연산을 위한 데이터가 연속적으로 발생하는 것이 아니라 행 방향의 샘플 데이터 수만큼의 시차를 갖고 발생함으로 내부 버퍼를 사용하고 있다. 이에 제안하는 구조에서는 행 방향 연간에 있어서 짝수 행과 홀수 행을 동시에 할 수 있도록 하드웨어 구조와 데이터 흐름을 구성하여 속도를 향상시키고, 열 방향 연산의 시작 지연 시간을 단축 시켰다. 그리고, 행 방향 처리 결과를 버퍼에 저장하지 않고 열 방향 연산의 입력으로 사용할 수 있도록 열 방향 처리 모듈을 개선하였다. 제안하는 구조는 입력 데이터를 4개의 분한 셋으로 분할하여 기존의 2개의 입력 데이터를 동시에 처리하는 방식에서 4개의 입력 데이터를 동시에 받아 처리 할 수 있도록 데이터의 흐름과 각 모듈의 연산 제어를 구성하였다. 그 결과 행 방향연산 속도를 향상시키고, 열 방향 연산 수행의 지연을 줄여 내부 버퍼 메모리를 절반으로 줄일 수 있었다. 제안하는 데이터흐름과 하드웨어 구조를 이용하여 VHDL을 이용하여 설계한 결과 기존의 $N^2/2+\alpha$의 전체 처리 시간을 $N^2/4+\beta$로 줄이는 결과를 얻었고, 내부 메모리 역시 기존의 방법에 비해 최대 $50\%$까지 줄이는 결과를 얻을 수 있었다.이 길었다. D, F 2개 시험구의 부화된 계통수는 각 48계통, 29계통으로 전체 조사계통의 15.6%, 9.4%를 차지하였다. D, F시험구의 평균부화비율은 각 54.5%, 71.6%였으며 평균사란비율은 각 33.0%, 25.0%였다 이상의 시험 결과를 보면 D, F 두 시험구 모두 최청사란비율이 일반계통보다 높게 나타나 월년잠종의 2년간 냉장보존을 위해서는 최청사란비율에 직접적으로 작용하는 최청 조건의 재검토가 우선적으로 필요함을 알 수 있었다.L)보다 높았다. 특히, 0.5 mM의 salicylic acid를 처리한 경우는 control에 비해 1.74배로 증가하였다. Methyl jasmonate 100 mM을 배양 6일째 첨가했을 때의 세포생장 변화를 보면, 첨가 후 2일이 지나면서부터 세포의 양이 크게 감소하기 시작하여 첨가 4일 후부터는 변화가 없었다. 따라서 methyl jasmonate를 처리 후 4일이 지나면 세포가 모두 죽는다는 것을 알 수 있었다. Methyl jasmonate 100 mM을 첨가한 후 4일째에 수확한 세포로부터 나온 oleanolic acid의 앙은 5.3 mg/L로 매우 적었다. 반면에 첨가 후 2일째에 수확한 세포로부터 나온 양은 94.1 mg/L로 control (43.4 mg/L)에 비해 2.17배로 증가되었다.재래시장과 백화점에서 시판되고 있는 계란 총 446개에 대해서도 동일한 절차와 방법으로 조사하였던바, 재래시장에서 구입했던 계란의 난각부분(Egg-shell)에서만 가금티푸스(fowl Typhoid)의 병원체인 S. gallinarum이 1주$(0.2\%)$만이 분리되었고, 기타 세균으로서는 대장균군이 역시 난각에서 가장 높은 빈도로 분리되었고,

위성 데이터 서비스 제공을 위한 데이터 인코더 설계 및 구현 (Design and Implementation of Data Encoder for Data Broadcasting Service via Satellite)

  • 신민수;김호겸;이호진
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2001년도 정기총회 및 학술대회
    • /
    • pp.39-42
    • /
    • 2001
  • 본 논문은 현재 다각적으로 논의되는 디지털 위성방송 및 데이터 방송 서비스를 제공하기 위해 랜 기반의 IP 망과 DVB 에서 규정한 위성망을 연결시켜 줌으로써 위성을 통한 다양한 멀티캐스트 및 유니캐스트 서비스를 제공할 수 있도륵 해주는 데이터 인코더의 하드웨어/소프트웨어 설계 및 구현에 관하여 기술한다. 다양한 위성 방송 서비스를 제공하기 위해서 데이터 인코더는 IP 데이터를 이더넷을 통해 입력받아 DVB 데이터 방송[2] 규격에서 규정한 MPE 포맷으로 켑슐화 한 후 MPEG-2 TS 패킷으로 변환하여 DVB-ASI 신호로 바꾸어 다중화기로 출력한다. 아울러 사용자 단말에서 서비스 수신을 위해 필요한 PSI/SI 정보와 서비스 형태에 따라 부가적으로 발생하는 사설 데이터를 처리해야 한다. 본 논문에서 기술하는 데이터 인코더는 4096개의 PID 할당이 가능하며 20M0ps 이상의 데이터 처리가 가능하여 동시에 여러 개의 서비스 제공이 가능하다.

  • PDF