• 제목/요약/키워드: Data Memory

검색결과 3,302건 처리시간 0.042초

지능형 엣지 컴퓨팅 기기를 위한 온디바이스 AI 비전 모델의 경량화 방식 분석 (Analysis on Lightweight Methods of On-Device AI Vision Model for Intelligent Edge Computing Devices)

  • 주혜현;강남희
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.1-8
    • /
    • 2024
  • 실시간 처리 및 프라이버시 강화를 위해 인공지능 모델을 엣지에서 동작시킬 수 있는 온디바이스 AI 기술이 각광받고 있다. 지능형 사물인터넷 기술이 다양한 산업에 적용되면서 온디바이스 AI 기술을 활용한 서비스가 크게 증가하고 있다. 그러나 일반적인 딥러닝 모델은 추론 및 학습을 위해 많은 연산 자원을 요구하고 있다. 따라서 엣지에 적용되는 경량 기기에서 딥러닝 모델을 동작시키기 위해 양자화나 가지치기와 같은 다양한 경량화 기법들이 적용되어야 한다. 본 논문에서는 다양한 경량화 기법 중 가지치기 기술을 중심으로 엣지 컴퓨팅 기기에서 딥러닝 모델을 경량화하여 적용할 수 있는 방안을 분석한다. 특히, 동적 및 정적 가지치기 기법을 적용하여 경량화된 비전 모델의 추론 속도, 정확도 그리고 메모리 사용량을 시험한다. 논문에서 분석된 내용은 실시간 특성이 중요한 지능형 영상 관제 시스템이나 자율 이동체의 영상 보안 시스템에 적용될 수 있다. 또한 사물인터넷 기술이 적용되는 다양한 서비스와 산업에 더욱 효과적으로 활용될 수 있을 것으로 기대된다.

잔차 신경망을 활용한 펫 로봇용 화자인식 경량화 (Lightweight Speaker Recognition for Pet Robots using Residuals Neural Network)

  • 강성현;이태희;최명렬
    • 전기전자학회논문지
    • /
    • 제28권2호
    • /
    • pp.168-173
    • /
    • 2024
  • 화자인식은 개개인마다 다른 음성 주파수를 분석하여 미리 저장된 음성과 비교해 본인 여부를 판단하는 하나의 기술을 의미한다. 딥러닝 기반의 화자인식은 여러 분야에 적용되고 있으며, 펫 로봇도 그 중 하나이다. 하지만 펫 로봇의 하드웨어 성능은 딥러닝 기술의 많은 메모리 공간과 연산에 있어 매우 제한적인 상황이다. 이는 펫 로봇이 사용자와 실시간 상호작용에 있어 해결해야 할 중요한 문제점이다. 딥러닝 모델의 경량화는 위와 같은 문제를 해결하기 위한 하나의 중요한 방법으로 자리하였으며, 최근 많은 연구가 진행되고 있다. 이 논문에서는 특정한 명령어 형태인 펫 로봇용 음성 데이터 세트를 구축하고 잔차(Residual)를 활용한 모델들의 결과를 비교해 펫 로봇용 화자인식의 경량화 연구의 결과를 서술하며, 결론에서는 제안한 방법에 대한 결과와 향후 연구방안에 대해 서술한다.

이러닝 적용을 위한 뇌파기반 인지부하 측정 (EEG based Cognitive Load Measurement for e-learning Application)

  • 김준;송기상
    • 인지과학
    • /
    • 제20권2호
    • /
    • pp.125-154
    • /
    • 2009
  • 본 연구는 이러닝 체제에서 상호작용을 개선할 수 있도록 하기 위하여 사용자의 생리적 데이터 가운데서 뇌파를 통하여 학습자의 인지부하 발생을 파악할 수 있는 지를 연구하고자 하였다. 뇌파를 통하여 인지부하 발생을 알 수 있게 된다면 실시간 이러닝 체제에서 적절한 피드백 제공에 활용될 수 있기 때문이다. 이를 위하여 EEG를 이용하여 학습자의 뇌파를 측정하면서 인지활동을 수행하는 동안 발생되는 인지부하도를 측정하였고 인지과부하를 판별할 수 있는지를 알아보았다. 뇌파 측정을 위하여 언어 관련 작업기억 능력을 측정할 수 있는 듣기회상과제를 제시하였으며, 실험을 통한 과제 정답률 및 뇌파 분석 결과는 다음과 같다. 첫째, 듣기회상과제의 정답률은 회상반응과제에서 1단계는 84.4%, 2단계는 90.6%, 3단계는 62.5%, 4단계는 56.3%를 보였으며, 통계적으로 유의한 차이가 있음을 확인하였다. 즉, 3, 4단계의 경우는 피험자들이 매우 어려움을 겪었던 단계로 인지과부하가 발생했을 것으로 보인다. 둘째, SEF-95% 지표는 1, 2단계에 비해 3, 4단계에서 더욱 높은 값을 보였으며, 이는 피험자들의 인지부하가 3, 4단계에서 높았음을 객관적으로 보여주는 근거이다. 셋째, 감마파의 상대파워는 3, 4단계에서 파워값이 급격히 올라가는 패턴을 보였으며, 통계적으로 유의한 5개의 채널(F3, F4, C4, F7, F8)을 확인하였다. 5개의 채널은 뇌의 브로카 영역(F7, F8) 주위에 위치하고 있으며, 특히 뇌맵핑 분석을 통해 확인한 결과, F8(우반구의 브로카 영역에 해당하는 위치)에서 단계별 난이도가 올라갈수록 활성화의 차이가 크게 나타났다. 넷째, 19채널에 대한 상호 상관 분석을 통해 1, 2단계에 비해 3, 4단계에서 비동기화가 증가하였다. 위의 결과를 통한 본 연구의 결론은 뇌파를 이용하여 인간이 인지활동을 수행하는 동안 인지부하도를 측정할 수 있으며, 인지과부하를 판별해 낼 수 있음을 확인하였다.

  • PDF

방출단층촬영 시스템을 위한 GPU 기반 반복적 기댓값 최대화 재구성 알고리즘 연구 (A Study on GPU-based Iterative ML-EM Reconstruction Algorithm for Emission Computed Tomographic Imaging Systems)

  • 하우석;김수미;박민재;이동수;이재성
    • Nuclear Medicine and Molecular Imaging
    • /
    • 제43권5호
    • /
    • pp.459-467
    • /
    • 2009
  • 목적: ML-EM (The maximum likelihood-expectation maximization) 기법은 방출과 검출 과정에 대한 통계학적 모델에 기반한 재구성 알고리즘이다. ML-EM은 결과 영상의 정확성과 유용성에 있어 많은 이점이 있는 반면 반복적인 계산과 방대한 작업량 때문에 CPU(central processing unit)로 처리할 때 상당한 연산시간이 소요되었다. 본 연구에서는 GPU(graphic processing unit)의 병렬 처리 기술을 ML-EM 알고리즘에 적용하여 영상을 재구성하였다. 대상 및 방법: 엔비디아사(社)의 CUDA 기술을 이용하여 ML-EM 알고리즘의 투사 및 역투사 과정을 병렬화 전략을 구상하였으며 Geforce 9800 GTX+ 그래픽 카드를 이용하여 병렬화 연산을 수행하여 기존의 단일 CPU기반 연산법과 비교하였다. 각 반복횟수마다 투사 및 역투사 과정에 걸리는 총 지연 시간과 퍼센트 오차(percent error)를 측정하였다. 총 지연 시간에는 RAM과 GPU 메모리 간의 데이터 전송 지연 시간도 포함하였다. 결과: 모든 반복횟수에 대해 CPU 기반 ML-EM 알고리즘보다 GPU 기반 알고리즘이 더 빠른 성능을 나타내는 것을 확인하였다. 단일 CPU 및 GPU 기반 ML-EM의 32번 반복연산에 있어 각각 3.83초와 0.26초가 걸렸으며 GPU의 병렬연산의 경우 15배 정도의 개선된 성능을 보였다. 반복횟수가 1024까지 증가하였을 경우, CPU와 GPU 기반 알고리즘은 각각 18분과 8초의 연산시간이 걸렸다. GPU 기반 알고리즘이 약 135배 빠른 처리속도를 보였는데 이는 단일 CPU 계산이 특정 반복횟수 이후 나타나는 시간 지연에 따른 것이다. 결과적으로, GPU 기반 계산이 더 작은 편차와 빠른 속도를 보였다. 결론: ML-EM 알고리즘에 기초한 GPU기반 병렬 계산이 처리 속도와 안정성을 더 증진시킴을 확인하였으며 이를 활용해 다른 영상 재구성 알고리즘에도 적용시킬 수 있을 것으로 기대한다.

깊이정보를 활용한 입체 편집 프로세스 연구 (The study of stereoscopic editing process with applying depth information)

  • 백광호;김민서;한명희
    • 디지털콘텐츠학회 논문지
    • /
    • 제13권2호
    • /
    • pp.225-233
    • /
    • 2012
  • <아바타>이후 3D 입체영상은 차세대 콘텐츠 산업의 블루칩으로 떠올라있다. 그에 반해 국내에서 상업적으로 제작하였던 모든 입체 콘텐츠들이 흥행에 실패 하였다. 이는 국내 입체콘텐츠의 완성도가 해외의 콘텐츠에 비하여 매우 떨어지기 때문이며, 현행되고 있는 2D기반의 입체 후반작업 프로세스가 그 원인으로 작용하고 있다. 그중에서도 입체 편집프로세스는 콘텐츠의 질과 가장 밀접한 관련이 있다. 영화<나탈리>의 제작사례를 통해 알아본 현행 입체 편집프로세스는 2D기반의 시스템을 이용하여 편집을 진행한 후 3D 디스플레이 시스템으로 확인하며 이후 문제가 발생할 경우 수정하는 방식을 취하고 있다. 이러한 현상을 개선하고자 좌 우 영상의 분석을 통해 합성에서 사용되고 있는 변위지도와 깊이지도 등의 깊이정보를 시각화 하여 현행 입체 편집 프로세스에 적용하였으며, 보다 객관성 있는 입체편집 프로세스를 제안하고자 한다. 제안한 프로세스를 실제 뮤직드라마 <기억의 조각>제작에 활용하여 영화<나탈리>와 비교해보았다. 그 결과 <나탈리>의 경우 컷과 컷 사이의 입체 값 변화가 매우 큰 것을 볼 수 있었으나 <기억의 조각>의 경우 입체 값이 전체적으로 균일한 결과를 도출 할 수 있었다. 현행 프로세스의 경우 주관적인 입체감을 바탕으로 하기 때문에 작업자의 컨디션과 상태에 따라 그 값이 달라 질수 있다. 또한 Positive영역에 대한 예상은 할 수 없기 때문에 동일한 공간 혹은 한정된 공간에서 컷에 따라 각기 다른 입체 값을 보임으로써 공간의 입체감을 왜곡시킬 우려가 있다. 반면 깊이정보의 시각화를 활용한 객관적인 입체 편집은 동일한 공간에 대한 입체감과 콘텐츠 전체의 입체감을 균일하게 맞추어 입체 콘텐츠의 질을 높이고, 나아가 입체감 왜곡, 시각적 피로 등의 문제도 동시에 해결 할 수 있다.

유전 알고리즘을 이용한 국소가중회귀의 다중모델 결합을 위한 점진적 앙상블 학습 (Incremental Ensemble Learning for The Combination of Multiple Models of Locally Weighted Regression Using Genetic Algorithm)

  • 김상훈;정병희;이건호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권9호
    • /
    • pp.351-360
    • /
    • 2018
  • 전통적으로 나태한 학습에 해당하는 국소가중회귀(LWR: Locally Weighted Regression)모델은 입력변수인 질의지점에 따라 예측의 해를 얻기 위해 일정구간 범위내의 학습 데이터를 대상으로 질의지점의 거리에 따라 가중값을 달리 부여하여 학습 한 결과로 얻은 짧은 구간내의 회귀식이다. 본 연구는 메모리 기반학습의 형태에 해당하는 LWR을 위한 점진적 앙상블 학습과정을 제안한다. LWR를 위한 본 연구의 점진적 앙상블 학습법은 유전알고리즘을 이용하여 시간에 따라 LWR모델들을 순차적으로 생성하고 통합하는 것이다. 기존의 LWR 한계는 인디케이터 함수와 학습 데이터의 선택에 따라 다중의 LWR모델이 생성될 수 있으며 이 모델에 따라 예측 해의 질도 달라질 수 있다. 하지만 다중의 LWR 모델의 선택이나 결합의 문제 해결을 위한 연구가 수행되지 않았다. 본 연구에서는 인디케이터 함수와 학습 데이터에 따라 초기 LWR 모델을 생성한 후 진화 학습 과정을 반복하여 적절한 인디케이터 함수를 선택하며 또한 다른 학습 데이터에 적용한 LWR 모델의 평가와 개선을 통하여 학습 데이터로 인한 편향을 극복하고자 한다. 모든 구간에 대해 데이터가 발생 되면 점진적으로 LWR모델을 생성하여 보관하는 열심학습(Eager learning)방식을 취하고 있다. 특정 시점에 예측의 해를 얻기 위해 일정구간 내에 신규로 발생된 데이터들을 기반으로 LWR모델을 생성한 후 유전자 알고리즘을 이용하여 구간 내의 기존 LWR모델들과 결합하는 방식이다. 제안하는 학습방법은 기존 단순평균법을 이용한 다중 LWR모델들의 선택방법 보다 적합도 평가에서 우수한 결과를 보여주고 있다. 특정지역의 시간 별 교통량, 고속도로 휴게소의 시간별 매출액 등의 실제 데이터를 적용하여 본 연구의 LWR에 의한 결과들의 연결된 패턴과 다중회귀분석을 이용한 예측결과를 비교하고 있다.

강수-일유출량 추정 LSTM 모형의 구축을 위한 자료 수집 방안 (Data collection strategy for building rainfall-runoff LSTM model predicting daily runoff)

  • 김동균;강석구
    • 한국수자원학회논문집
    • /
    • 제54권10호
    • /
    • pp.795-805
    • /
    • 2021
  • 본 연구는 소양강댐 유역을 대상으로 LSTM 기반의 일유출량 추정 딥러닝 모형을 개발한 후, 모형구조 및 입력자료의 다양한 조합에 대한 모형의 정확도를 살폈다. 첫 12년(1997.1.1-2008.12.31) 동안의 유역평균 일강수량, 일기온, 일풍속 (이상 입력), 일평균 유량 (출력)으로 이루어진 데이터베이스를 기반으로 모형을 구축하였으며, 이후 12년(2009.1.1-2020.12.31) 동안의 자료를 사용하여 Nash-Sutcliffe Model Efficiency Coefficient (NSE)와 RMSE를 살폈다. 가장 높은 정확도를 보인 조합은 64개의 은닉유닛을 가진 LSTM 모형 구조에 가능한 모든 입력자료(12년치의 일강수량, 일기온, 일풍속)를 활용한 경우로서 검증기간의 NSE와 RMSE는 각각 0.862와 76.8 m3/s를 기록하였다. LSTM의 은닉유닛이500개를 초과하는 경우 과적합으로 인한 모형의 성능 저하가 나타나기 시작했으며, 1000개를 초과하는 경우 과적합 문제가 두드러졌다. 12년치의 일강수만 입력자료로 활용한 경우에도 매우 높은 성능(NSE=0.8~0.84)의 모형이 구축되었으며, 한 해의 자료만을 활용하여 학습한 경우에도 충분히 활용 가능한 정확도(NSE=0.63~0.85)를 가진 모형을 구축할 수 있었다. 특히 유량의 변동성이 큰 한 해의 자료만을 활용하여 모형을 학습한 경우 매우 높은 정확도(NSE=0.85)의 모형이 구축되었다. 학습자료가 중유량과 양극한의 유량을 모두 포함한 경우라면 5년 이상의 입력자료는 모형의 성능을 크게 개선시키지 못했다.

공동체의 기억을 담는 아카이브를 지향하며 20세기민중생활사연구단 아카이브의 성과와 과제 (A Proposal for Archives securing Community Memory The Achievements and Limitations of GPH Archives)

  • 김주관
    • 기록학연구
    • /
    • 제33호
    • /
    • pp.85-112
    • /
    • 2012
  • 20세기민중생활사연구단은 2002년 7월부터 2007년 11월까지 약 5년 동안 다음과 같은 목표를 가지고 진행되었다. 첫째 현지 조사에 기반하여 일차적인 자료 수집을 지향한다. 둘째, 수집된 자료를 디지털 방식으로 아카이브한다. 셋째, 아카이브에 접근성을 확보한다. 넷째, 아카이빙된 자료를 다양한 층위에서 활용한다. 특히 20세기민중생활사연구단은 인류학이나 사회사 등과 같은 연구 분야뿐만 아니라 생활사와 관련된 아카이브의 구축에도 큰 영향을 미쳤다. 국내에서 생활사와 관련된 아카이브에 대한 논의 뿐만 아니라 아카이브 일반에 대한 논의마저도 일반적으로 확산되기도 전에 20세기민중생활사연구단은 디지털 아카이브의 구축을 궁극적인 목표로 삼았다는 점에서 아카이브 구축의 전형을 보이려는 시도를 하였다. 또한 아카이브 구축의 과정에서 시민들의 참여를 유도하고, 그 결과물을 시민들에게 공개하고 공유한다는 원칙을 제시함으로써 국내에서는 최초로 개방적인 아카이브의 모델을 제시하였다. 아카이브의 활용과 관련하여서도 20세기민중생활사연구단은 모범적인 사례를 보여준다. 2002년 7월 출범한 20세기민중생활사연구단은 연구자들이 직접 현지조사를 수행하여 수집한 자료를 디지털 방식으로 아카이빙하였고, 이 자료를 바탕으로 2006년부터 2011년까지 47권의 한국민중구술열전시리즈를 출간하였다. 또한 아카이빙된 자료를 바탕으로 여섯 번에 걸쳐 사진전시회를 개최하였으며, 이 결과물 역시 다섯 권의 사진집으로 출간하였다. 이러한 다양한 방식의 결과물들은 아카이빙된 자료를 어떻게 활용할 것인가 하는 문제에 명쾌한 해답을 제시하고 있는 것으로 평가된다.이처럼 20세기민중생활사연구단은 생활사 아카이브의 구축에 있어서 선도적인 역할을 하였지만, 그러한 선도적인 지위로 인해 일정 부분 한계를 갖는 것도 사실이다. 하지만 20세기민중생활사연구단의 이러한 시도에 대한 평가나 이를 바탕으로 생활사 아카이브가 궁극적으로 어떠한 형식과 내용을 가져야 할 것인가에 대한 반성적 혹은 비판적 성찰도 없이 20세기민중생활사연구단이 해체된 지 5년이란 시간이 흘렀다. 20세기민중생활사연구단의 작업을 계승하여 20세기민중생활사연구회가 창립되었지만 이전만큼 활발한 활동은 이루어지지 않고 있다. 20세기민중생활사연구단이 해결되어야 할 과제로 남긴 문제는 자료 수집과 관련된 방법론적 한계, 그리고 (원)자료의 보존과 관련된 공간적이고 기술적인 미비로 요약될 수 있을 것이다. 이 문제를 해결하기 위해서는 아래로부터의 자발적인 참여와 위로부터의 정책적인 지원이 있어야만 해결 가능한 문제인 것이다. 즉 자료수집의 방법에 있어서는 지금까지 학자들의 연구나 조사의 대상이 되었던 제보자들 스스로가 주체가 되어 자료를 생산하는 것이 바람직한 해결 방안으로 제시될 수 있을 것이며, 원자료의 보관 및 보존과 관련하여서는 지금까지 국가기록원을 중심으로 한 공공기록물 중심의 중앙집권적인 아카이브 관행을 벗어나 지방분권적인 아카이브의 설립이 대안이 될 수 있을 것이다. 즉 공동체 아카이브의 설립이 하나의 대안이 될 수 있을 것이며, 이는 기록의 민주화와 함께 기록에서 소외되었던 사람들에게 정당한 권리를 찾아주는 작업이 될 것이다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

저잡음 · 고신뢰성 Differential Paired eFuse OTP 메모리 설계 (Design of Low-Noise and High-Reliability Differential Paired eFuse OTP Memory)

  • 김민성;김려연;학문초;하판봉;김영희
    • 한국정보통신학회논문지
    • /
    • 제17권10호
    • /
    • pp.2359-2368
    • /
    • 2013
  • 본 논문에서는 power IC에서 파워가 ON되어있는 동안 입력 신호인 RD(Read) 신호 포트에 glitch와 같은 신호 잡음이 발생하더라도 파워-업(power-up)시 readout된 DOUT 데이터를 유지하면서 다시 읽기 모드로 재진입하지 못하도록 막아주는 IRD(Internal Read Data) 회로를 제안하였다. 그리고 pulsed WL(Word-Line) 구동방식을 사용하여 differential paird eFuse OTP 셀의 read 트랜지스터에 수 십 ${\mu}A$의 DC 전류가 흐르는 것을 방지하여 blowing 안된 eFuse 링크가 EM(Electro-Migration)에 의해 blowing되는 것을 막아주어 신뢰성을 확보하였다. 또한 program-verify-read 모드에서 프로그램된 eFuse 저항의 변동을 고려하여 가변 풀-업 부하(variable pull-up load)를 갖는 센싱 마진 테스트 기능을 수행하는 동시에 프로그램 데이터와 read 데이터를 비교하여 PFb(pass fail bar) 핀으로 비교 결과를 출력하는 회로를 설계하였다. $0.18{\mu}m$ 공정을 이용하여 설계된 8-비트 eFuse OTP IP의 레이아웃 면적은 $189.625{\mu}m{\times}138.850{\mu}m(=0.0263mm^2)$이다.