• 제목/요약/키워드: Information Processing Model

검색결과 5,541건 처리시간 0.027초

영상 스트리밍 서비스 트래픽의 안정적인 전달 지연변이 보장을 위한 스케줄링 방안 (A Scheduling Method to Ensure a Stable Delay Variation of Video Streaming Service Traffic)

  • 김현종;최원석;최성곤
    • 정보처리학회논문지C
    • /
    • 제18C권6호
    • /
    • pp.433-440
    • /
    • 2011
  • 본 논문은 IPTV, VoD와 같은 비디오 스트리밍 트래픽에 대해 큐 길이 변동을 최소화하여 안정적인 지연변이를 보장할 수 있는 스케줄링 방안을 제안한다. MPEG-4 및 H.264와 같은 코덱은 가변 비트율(VBR)로 영상 프레임을 전송하기 때문에 일정 시간 내에 전송되어야 하는 트래픽의 양이 매우 유동적이다. 기존 스케줄링 방안을 이용하여 영상 프레임을 전송할 경우 VBR 특성으로 인해 종단간 패킷 전달 지연변이의 증가를 초래한다. 이에 우리는 대량으로 유입되는 스트리밍 트래픽에 대하여 패킷의 대량 유입 크기와 도착률을 고려하여 서비스율을 적응적으로 제어함으로써 큐 길이 변화율을 최소화할 수 있는 스케줄링 방안을 제안한다. 제안 방안을 이용할 경우 큐 길이 변동의 최소화를 통해 보다 안정적으로 영상 서비스 패킷을 전달할 수 있다. 제안 방안의 유효성을 확인하기 위해 우리는 큐잉 모델을 이용하였으며, 또한 OPNET 시뮬레이션을 수행하였다.

연속적인 이미지를 이용한 3차원 장면의 사실적인 복원 (Realistic 3D Scene Reconstruction from an Image Sequence)

  • 전희성
    • 정보처리학회논문지B
    • /
    • 제17B권3호
    • /
    • pp.183-188
    • /
    • 2010
  • 본 연구에서는 여러 이미지를 이용하여 사실적인 3차원 장면의 모델을 얻는 방법이 구현되었다. 이미지는 파라메터를 모르는 카메라를 이용하여 여러 위치에서 획득한 것을 사용하였다. 먼저 특징점 추출 및 추적 방법을 사용하여 모든 이미지에 대한 대응점들을 구하고 이 점들을 사용하여 사영복원을 구한다. 그 다음 사영 복원된 값에 여러 제약조건을 사용하여 유클리디언 복원을 하면 특징점들의 3차원 좌표값이 계산된다. 이 좌표값을 이용하여 삼각형 메쉬를 구한 후 이 면에 텍스처 맵핑을 하면 사실적인 복원이 완성된다. 전체 시스템은 C++언어로 구현하였으며, 사용자 인터페이스는 Qt 라이브러리로, 텍스처 맵핑과 모델 가시화 부분은 OpenGL 그래픽스 라이브러리로 구현하였다. 구현된 시스템의 효용성을 보이기 위해 모의 데이터와 실제 이미지 데이터를 이용하여 실험한 결과를 포함하였으며 만족할 만한 복원 결과를 얻을 수 있었다.

SLA 평가 지표 선정과 개선 방안에 관한 사례 연구 (A Case Study on Selection and Improvement of SLA Evaluation Metrics)

  • 신성진;류성열;김유리
    • 정보처리학회논문지D
    • /
    • 제16D권4호
    • /
    • pp.541-548
    • /
    • 2009
  • 최근 기업에서는 SLA를 도입하여 IT 서비스를 수행하고 있다. 하지만 SLA 평가 지표의 선정과 개선에 대한 객관적인 기준이 없기 때문에 IT 서비스의 발전 방안을 제시하기 어렵다. 본 연구에서는 기존의 IT 성숙도 모델에서 사용된 평가 속성을 기반으로 하여 SLA 평가 지표의 선정과 개선을 위한 기준에 맞는 측정 지표를 도출하고 이를 제안한다. 제안한 측정 지표의 적용 가능성을 검증하기 위하여 본 연구에서는 D사에 기반을 둔 사례 연구를 수행하였다. D사의 현황에 맞는 측정 지표를 적용 및 평가 하여 개선 목표선을 지정하고, 개선 목표선 이하의 점수를 가진 측정 지표에 대한 개선 지침을 제시하여 각 측정 지표에 대한 SLA 평가 지표를 도출한다. 도출된 SLA 평가 지표를 D사의 사례에 1년 간 적용하여 지표 선정 및 개선의 방법이 유용함을 입증하였다.

심혈관계 질환 진단을 위한 복합 진단 지표와 출현 패턴 기반의 분류 기법 (Multi-parametric Diagnosis Indexes and Emerging Pattern based Classification Technique for Diagnosing Cardiovascular Disease)

  • 이헌규;노기용;류근호;정두영
    • 정보처리학회논문지D
    • /
    • 제16D권1호
    • /
    • pp.11-26
    • /
    • 2009
  • 심혈관계 질환의 진단 위해서 복합 진단 지표를 이용한 출현 패턴 기반의 분류 기법을 제안하였다. 복합 진단 지표 적용을 위해서 심박동변이도의 선형/비선형적 특징들을 세 가지 누운 자세에 대해 분석하였고 ST-segments로부터 4개의 진단 지표를 추출하였다. 이 논문에서는 질환진단을 위해서 필수 출현 패턴을 이용한 분류 모델을 제안하였다. 이 분류 기법은 환자 그룹의 질환 패턴들을 발견하며, 이러한 출현 패턴은 심혈관계 질환 환자들에서는 빈발하지만 정상인 그룹에서는 빈발하지 않는 패턴들이다. 제안된 분류 알고리즘의 평가를 위해서 120명의 협심증(AP: angina pectrois) 환자, 13명의 급성관상동맥증후군(ACS: acute coronary syndrome) 환자 그리고 128명의 정상인 데이터를 사용하였다. 실험 결과 복합 지표를 사용하였을 때, 세 그룹의 분류에 대한 정확도는 약 88.3%였다.

임베디드 시스템의 재사용 프레임워크에 대한 정형명세 (A Formal Specification of Reusable Framework of Embedded System)

  • 조은숙;김철진;송치양
    • 정보처리학회논문지D
    • /
    • 제17D권6호
    • /
    • pp.431-442
    • /
    • 2010
  • 임베디드 시스템은 하드웨어와 소프트웨어 요소들이 서로 결합된 시스템이기 때문에 설계 시 실시간성(Real-time), 반응성(Reactive), 소규모(Small Size), 경량화(Low Weight), 안전성(Safe), 신뢰성(Reliable), 견고성(Harsh Environment), 저비용(Low Cost) 등의 요소들을 고려하여 설계해야 한다. 그러나 현재 임베디드 시스템 개발에 이러한 요소들을 반영한 설계 기법들이 미비하게 제시되어 있다. 특히 임베디드 시스템 개발에 있어서 프레임워크를 기반으로 임베디드 시스템을 개발하는 형태가 거의 이뤄지고 있지 않다. 이로 인해 현재 개발되어 있는 임베디드 시스템들의 내부 코드들을 살펴보면 시스템 작동과 전혀 상관이 없는 코드들이 무수하게 잔재하고 있으며, 임베디드 시스템 개발에 있어서 재사용성이나 가변성에 대한 고려가 미흡한 실정이다. 따라서 본 연구에서는 임베디드 시스템의 재사용성을 향상시키기 위해 제안했던 재사용 프레임워크 설계에 대한 완전성이나 일관성을 보장하기 위해 Z를 이용하여 프레임워크 설계에 대한 정형 명세 기법을 제시하고자 한다. 또한 Z 언어를 통해 명세한 결과를 Z-Eves Tool을 통해 Z 모델 체킹을 수행하여 프레임워크 설계의 명확성을 보이고자 한다.

중소 제조업을 위한 HTM 기반의 부품 이미지 인식 시스템의 개발 (Development of an HTM-Based Parts Image Recognition System for Small Scale Manufacturing Industry)

  • 배선갑;이대한;조건화;남해보;성기원;배종민;강현석
    • 정보처리학회논문지D
    • /
    • 제16D권4호
    • /
    • pp.613-620
    • /
    • 2009
  • 소량으로 다품종을 생산하는 소규모 공장에서 적은 비용으로 쉽게 부품의 양 불량을 판별하는 시스템의 개발이 절실히 요구된다. 이러한 시스템의 개발을 위하여 다양한 환경에서도 물체를 인식할 수 있는 사람의 인식 능력과 같은 기능이 필요하다. 인간의 고등 지능은 대부분 두뇌의 신피질(neocortex)에서 비롯된다. 최근 이 신피질의 동작 원리를 컴퓨터에 접목시키는 연구 중의 하나가 Jeff Hopkins가 제안한 HTM 이론이다. 본 논문은 이 HTM 이론을 적용하여 소량 다품종 부품 생산 현장에서 부품의 이미지를 인식하여 양 불량을 판별하는 시스템인 PRESM(Parts image REcognition System for small scale Manufacturing industry)을 개발하였다. 개발 결과를 현장에 적용해 본 결과 실제 환경에서 부품의 양 불량 판별이 우수한 것으로 확인되었다.

단말 간 직접 통신(D2D) 기반 협력 서비스를 위한 동적 서비스 바인딩 기법 (Dynamic Service Binding Method for Device-to-Device(D2D) Communication Based Cooperative Services)

  • 이미연;백두산;이정원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권12호
    • /
    • pp.455-462
    • /
    • 2014
  • 최근에는 모바일 기기 자체의 성능뿐만 아니라 무선 네트워크 등의 연관 기술들이 발달함에 따라 모바일 환경에서의 다양한 서비스에 대한 관심이 높아지고 있는 추세이다. 게다가 급증하는 통신 부하 문제가 새로운 이슈로 떠오르면서 단말 간 직접 통신(D2D)과 이에 기반한 단말간의 협력 서비스 방식에 대한 연구가 활발해지고 있다. 본 논문에서는 D2D 기반의 협력 서비스를 위한 스마트 에이전트 시스템을 설계하고 서비스 온톨로지 기반의 동적 서비스 바인딩 기법을 제안한다. 3가지 타입의 에이전트를 설계하여 협력 서비스를 위한 역할을 구분하고, 에이전트의 기능을 서비스 단위로 모델링하여 속성을 기술함으로써 지식 베이스를 구축한다. 제안한 지식 모델인 D2D 협력 서비스 온톨로지는 실시간의 상황이 지속적으로 변화하는 모바일 환경에서 가변적인 상황에 따라 필요한 서비스를 최적의 멤버 기기에게 동적으로 바인딩함으로써 효율적이고 자율적인 협력 서비스를 가능케 할 수 있는 핵심 기술이라 할 수 있다.

소셜 네트워크 서비스의 단어 빈도와 범죄 발생과의 관계 분석 (An Analysis of Relationship Between Word Frequency in Social Network Service Data and Crime Occurences)

  • 김용우;강행봉
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제5권9호
    • /
    • pp.229-236
    • /
    • 2016
  • 기존의 범죄 예측 방법들은 범죄 발생을 예측하기 위해 기존 기록을 이용하였다. 그러나 이러한 범죄 예측 모델은 데이터를 갱신하는데 어려움이 있다. 범죄 예측을 향상시키기 위해서 소셜 네트워크 서비스(SNS)를 이용하여 범죄를 예측하는 연구들이 진행되었지만, SNS 데이터와 범죄 기록 사이의 관계에 대한 연구는 미흡하다. 따라서, 본 논문에서는 SNS 데이터와 범죄 발생 사이의 관계를 범죄 예측의 관점에서 분석하였다. 잠재 디리클레 할당(LDA)을 이용하여 범죄 발생과 관련된 단어를 포함하는 트윗을 추출하였고, 범죄 기록에 따른 트윗 빈도의 변화를 분석하였다. 범죄 관련 단어를 포함하는 트윗의 빈도를 계산하고, 범죄 발생에 따라서 트윗 빈도를 분석하였다. 범죄가 발생하였을 때, 범죄와 관련된 트윗의 빈도가 변화하였다. 게다가, 범죄 발생 전후에 트윗 빈도가 특정 패턴을 보이기 때문에 SNS 데이터가 범죄 예측 모델에 도움이 될 것이다.

계층적 군집화를 이용한 능동적 학습 (Active Learning based on Hierarchical Clustering)

  • 우호영;박정희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권10호
    • /
    • pp.705-712
    • /
    • 2013
  • 능동적 학습(active learning)은 소수의 라벨 데이터로 구성된 훈련 집합이 주어진 경우에 분류기 학습에 가장 도움이 될 만한 언라벨드 데이터를 선택하여 전문가에 의한 라벨링을 통해 훈련 집합에 포함시키는 과정을 반복함으로써 분류기의 성능을 향상시키는 것을 목적으로 한다. 본 논문에서는 워드 연결(ward's linkage)을 이용한 계층적 군집화(hierarchical clustering)를 바탕으로 한 능동적 학습 방법을 제안한다. 제안된 방법은 각 군집에서 적어도 하나의 샘플을 포함하도록 초기 훈련 집합을 능동적으로 구성하거나 또는 기존의 훈련 집합을 확장함으로써 전체 데이터 분포를 반영할 수 있게 한다. 기존의 능동적 학습 방법들 중 대부분은 초기 훈련 집합이 주어져 있을 경우를 가정하는 반면에 제안하는 방법은 초기 클래스 정보를 가진 훈련 데이터가 주어지지 않은 경우와 주어진 경우에 모두 적용 가능하다. 실험을 통하여 제안하는 방법이 비교 방법들에 비해 분류기 성능을 크게 향상시킬 수 있는 효과적인 데이터 선택을 수행함을 보인다.

A Fast Processing Algorithm for Lidar Data Compression Using Second Generation Wavelets

  • Pradhan B.;Sandeep K.;Mansor Shattri;Ramli Abdul Rahman;Mohamed Sharif Abdul Rashid B.
    • 대한원격탐사학회지
    • /
    • 제22권1호
    • /
    • pp.49-61
    • /
    • 2006
  • The lifting scheme has been found to be a flexible method for constructing scalar wavelets with desirable properties. In this paper, it is extended to the UDAR data compression. A newly developed data compression approach to approximate the UDAR surface with a series of non-overlapping triangles has been presented. Generally a Triangulated Irregular Networks (TIN) are the most common form of digital surface model that consists of elevation values with x, y coordinates that make up triangles. But over the years the TIN data representation has become an important research topic for many researchers due its large data size. Compression of TIN is needed for efficient management of large data and good surface visualization. This approach covers following steps: First, by using a Delaunay triangulation, an efficient algorithm is developed to generate TIN, which forms the terrain from an arbitrary set of data. A new interpolation wavelet filter for TIN has been applied in two steps, namely splitting and elevation. In the splitting step, a triangle has been divided into several sub-triangles and the elevation step has been used to 'modify' the point values (point coordinates for geometry) after the splitting. Then, this data set is compressed at the desired locations by using second generation wavelets. The quality of geographical surface representation after using proposed technique is compared with the original UDAR data. The results show that this method can be used for significant reduction of data set.