• 제목/요약/키워드: histogram data

검색결과 490건 처리시간 0.03초

국내 유통 첨가제의 배출가스 및 연비특성 (Characteristics of Emission and Fuel Economy of Fuel Additives in the Domestic Market)

  • 김성우;이민호;인정민;김재권;정충섭
    • 한국신재생에너지학회:학술대회논문집
    • /
    • 한국신재생에너지학회 2010년도 추계학술대회 초록집
    • /
    • pp.165.1-165.1
    • /
    • 2010
  • In the past, drivers bought a fuel additives to treat a combustion chambers or injector nozzles for carbon or gum deposit at market. But, nowadays, as raised cost of fuel for a vehicle the consumers also start focusing on a function of fuel additives that increases fuel economy of one. Some fuel additive manufacturers and agents advertise that their goods make a car it's initial state. This paper shows data for 3 years that were acquired during test for registration of an additive in domestic. The data were sorted according to kind of vehicle, kind of fuel, test mode, CO, HC, NOx, PM, total emission, fuel economy and accumulated mileage. And than by using simple linear regression analysis changes according to accumulated mileage was displayed. Normal distribution and histogram of rate of increase and decrease were displayed. the analyzed data indicated that a fuel additive maintain and make a car the first state of one but can't make a car be batter than initial the one.

  • PDF

A New Approach for Information Security using an Improved Steganography Technique

  • Juneja, Mamta;Sandhu, Parvinder Singh
    • Journal of Information Processing Systems
    • /
    • 제9권3호
    • /
    • pp.405-424
    • /
    • 2013
  • This research paper proposes a secured, robust approach of information security using steganography. It presents two component based LSB (Least Significant Bit) steganography methods for embedding secret data in the least significant bits of blue components and partial green components of random pixel locations in the edges of images. An adaptive LSB based steganography is proposed for embedding data based on the data available in MSB's (Most Significant Bits) of red, green, and blue components of randomly selected pixels across smooth areas. A hybrid feature detection filter is also proposed that performs better to predict edge areas even in noisy conditions. AES (Advanced Encryption Standard) and random pixel embedding is incorporated to provide two-tier security. The experimental results of the proposed approach are better in terms of PSNR and capacity. The comparison analysis of output results with other existing techniques is giving the proposed approach an edge over others. It has been thoroughly tested for various steganalysis attacks like visual analysis, histogram analysis, chi-square, and RS analysis and could sustain all these attacks very well.

다차원 대용량 저밀도 데이타 큐브에 대한 고밀도 서브 큐브 추출 알고리즘 (Dense Sub-Cube Extraction Algorithm for a Multidimensional Large Sparse Data Cube)

  • 이석룡;전석주;정진완
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권4호
    • /
    • pp.353-362
    • /
    • 2006
  • 데이타 웨어하우스는 기업이나 사회 전반에서 사용되는 방대한 데이타를 저장하고, 효율적인 분석을 가능하게 하는 데이타 저장소로써, 점점 그 활용도가 증가하고 있다. 본 연구에서는 이러한 데이타 웨어하우스 구축 기술의 핵심이 되는 다차원 데이타 큐브 (multidimensional data cube) 기술을 연구하는 데 목적이 있다. 고차원 데이타 큐브에는 필연적으로 내재하는 데이타의 희소성 (sparsity)에 의한 검색 오버헤드가 있다. 본 연구에서는 이러한 오버헤드를 현격하게 감소시키는 알고리즘을 제시함으로써, 데이타 웨어하우스의 효율을 높이는 데 기여한다. 즉, 고차원의 희소 데이타 큐브에서 데이타가 조밀하게 밀집된 영역들을 찾아 그 영역을 중심으로 서브 큐브를 구축하여, 데이타 검색 시에 전체의 데이타 큐브를 대상으로 하지 않고 해당 서브 큐브만으로 검색 대상을 제한시킴으로써 검색 효율을 높이는 알고리즘이다. 본 논문에서는 다 차원 대용량의 희소 데이타 큐브로부터 밀도가 높은 서브 큐브를 찾기 위하여 비트맵과 히스토그램에 기반한 알고리즘을 제안하며, 실험을 통하여 제안한 알고리즘의 효용성을 보여준다.

웨이블릿 부대역의 히스토그램 특성과 통계적 모멘트를 이용한 스테그분석 (Steganalysis Using Histogram Characteristic and Statistical Moments of Wavelet Subbands)

  • 현승화;박태희;김영인;김유신;엄일규
    • 대한전자공학회논문지SP
    • /
    • 제47권6호
    • /
    • pp.57-65
    • /
    • 2010
  • 본 논문은 스테가노그래피 알고리즘에 대한 블라인드 스테그분석 기법을 제안한다. 제안하는 스테그분석기법은 두 가지 형태의 특징 벡터를 추출한다. 첫 번째로, 영상에 정보를 은닉한 후 웨이블릿 부대역의 히스토그램 특성이 변한다는 것을 관찰하고 히스토그램의 위치 변화를 특징으로 이용한다. 두 번째로, 웨이블릿 특성 함수의 통계적 모멘트를 특징으로 이용한다. 첫번째 형태의 특징은 영상을 3-레벨 웨이블릿 변환하여 9개의 고주파 부대역에서 각각 하나의 특징을 추출하여 총 9개의 특징 벡터 얻는다. 두 번째 형태의 특징은 각 부대역별로 3차 모멘트까지 추출하여 39개의 특징 벡터를 얻는다. 총 48개의 특징 벡터를 교사학습을 이용하여 학습한 후 스테고 영상과 커버 영상을 분류한다. 다층 퍼셉트론 신경망 분류기를 이용하여 두 가지 형태의 특징을 입력으로 하여 삽입 데이터의 존재유무를 판별한다. 제안 방법의 성능을 평가하기 위하여 CorelDraw 데이터베이스 영상이 사용되었고 LSB 방법과 SS방법, blind SS방법, F5방법으로 다양한 삽입률의 스테고 영상을 생성하여 실험한다. 민감도와 특이도, 에러율, ROC 커브 면적 등을 이용하여 제안 방법이 기존의 스테그분석 방법보다 삽입 정보 유무를 검출하는데 효과적임을 보여준다.

항공 라이다데이터를 이용한 개별수목탐지 및 평균수고추정 (Detection of Individual Trees and Estimation of Mean Tree Height using Airborne LIDAR Data)

  • 황세란;이미진;이임평
    • Spatial Information Research
    • /
    • 제20권3호
    • /
    • pp.27-38
    • /
    • 2012
  • 산림의 보존과 관리에 대한 필요성이 점차 증가하면서 항공 라이다데이터를 이용한 산림연구가 활발히 수행되고 있다. 이러한 산림연구에서 수목고도는 정량적인 산림측정을 위한 중요한 변수로 이용된다. 이에 본 연구는 항공 라이다데이터로부터 수목고도 추정을 위한 대표적인 두 종류의 방법을 적용하고 그 결과를 비교분석한다. Local maximum 필터링에 기반한 개별수목탐지 방법으로 개별수목의 수, 위치, 높이 및 평균수고를, 수목고도모델 또는 히스토그램을 이용한 평균수고 추정방법으로 개별격자 또는 전체영역에 대한 최대, 평균수고, 평균 수관고를 추정한다. 현장에서 실측한 검증데이터와 비교한 결과 개별 수목은 76.6%의 정확도로 탐지되었으며 개별수고는 전체 수종의 경우 1.91m, 침엽수종에 대해서는 0.75m의 RMSE로 추정되었다. 반면 수목고도모델을 이용하여 추정된 평균수고는 약 1~2m의 RMSE를 보였으며, 히스토그램을 이용하여 추정된 평균수고는 약 0.6m 과소 추정되었다. 정확하고 다양한 산림정보 추출을 위해 수종 및 추정인자에 따라 적합한 상호보완적인 방법을 선택하고 융합하는 것이 필요하다.

선박 부유물 감김사고의 시·공간적 분석 (Spatiotemporal Analysis of Ship Floating Object Accidents)

  • 유상록;김득봉;장다운
    • 해양환경안전학회지
    • /
    • 제27권7호
    • /
    • pp.1004-1010
    • /
    • 2021
  • 선박의 해양사고 중 부유물 감김사고는 운항지연에 그치지 않고 대형 인명 피해사고까지 이어질 수 있어 이에 대한 예방책이 요구되고 있다. 이에 본 연구는 영해와 베타적경제수역 등을 포함한 해역의 최근 5년간 선박의 부유물 감김사고 데이터를 시·공간적 측면에서 분석하고, 관련 연구 분야에 기초 자료를 제공하고자 한다. 부유물 감김사고의 상대적 밀도 분포를 시각화하기 위하여 이차원 평활 히스토그램을 적용하였으며, 시간대, 주·야간, 계절에 따른 각 변수가 감김사고에 미치는 영향을 분석하기 위해 다항 로지스틱 회귀모형을 적용하였다. 공간적 분석결과 전체 사고에 대해 평활화된 밀도 값이 높은 곳은 진해만을 포함한 거제도~통영 해상이었으며, 서해 전곡항 인근 해상, 제주도 북부 해상으로 나타났다. 시간적 분석결과 부유물 감김사고는 주간에 71.4%로 가장 많이 발생하였으며, 계절별로는 가을철이 다른 계절에 비해 가장 많이 발생한 것으로 분석되었다. 또한, 어선, 수상레저기구, 낚시어선의 감김사고 발생 가능성이 화물선 보다 높은 것으로 조사되었다. 본 연구의 시·공간적 분석결과는 향후 부유물에 대한 단속강화 및 제거를 위한 해양경찰함정 배치와 시간별·계절별 사고방지를 위한 부유물 사전 제거작업 대책 마련의 기초자료로 활용될 것으로 기대된다.

데이터 내용 보호를 위한 이미지 특징 기반의 보안 접근 제어 (Image Features Based Secure Access Control for Data Content Protection)

  • 하선주;박대철
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.171-180
    • /
    • 2013
  • 데이터의 보안은 항상 중요한 문제이다. 특히 현재 각광받고 있는 클라우드 컴퓨팅 시스템은 필연적으로 데이터 보안의 문제가 제기되고 있다. 그러나 단순한 보안방법으로는 더 이상 데이터가 안전하지 않으며, 데이터 보안을 위해서 보다 진보된 방법을 요구하고 있다. 본 논문에서는 기존의 텍스트 기반의 암호 방식보다 더 높은 레벨의 보안방식을 제시하기 위해 이미지 정보 기반의 데이터 내용 접근 제어 방식에 관하여 연구하였다. 원본 이미지에서 히스토그램 값을 이용하여 칼라키를 생성하고 이미지를 변환시켜 위치정보와 색상정보를 추출하여 보안 키를 생성하여 보안처리된 데이터 내용을 접근한다. 끝으로 본 몬문은 제안한 기법를 평가하기 위해 데이터 내용의 접근을 제어할 수 있는 인터페이스를 설계하고 구현하였다.

효율적인 웨이블렛 기반 오디오 데이터 검색 시스템 구현 (Implementation of an Efficient Wavelet Based Audio Data Retrieval System)

  • 이배호;조용춘;김광희
    • 한국음향학회지
    • /
    • 제21권1호
    • /
    • pp.82-88
    • /
    • 2002
  • 본 논문은 오디오 데이터의 검색을 위해 웨이블렛 (wavelet) 변환을 이용한 효율적인 인덱싱 방법을 제안하였다. 오디오 데이터는 그 자신이 가지고 있는 많은 저장공간의 필요, 전송에 있어서의 실시간 필요성, 큰 대역폭등의 다양한 특성 때문에 좋은 검색효율을 위한 인덱스를 구성하기가 쉽지 않다. 신호 및 영상처리에서 각광받고 있는 웨이블렛을 이용한 인덱스는 웨이블렛 변환이 가지고 있는 여러 특징들로 인해 데이터를 블록으로 나누지 않은 상태에서의 인덱싱과 검색을 가능케 한다. 오디오 데이터의 인덱싱은 웨이블렛의 마지막 단계의 고주파 부분과 저주파 부분의 계수를 이용하여 고주파부분은 스트링 매칭 알고리즘에 의해 스트링의 연속으로 변환하고, 저주파 부분은 영점 교차 히스토그램으로 변환한다. 구축된 인덱스를 이용한 오디오 데이터 검색은 질의 데이터와 데이터 베이스안의 인덱스 각 부분, 즉 고주파 부분과 저주파 부분의 스트링을 비교하여 가장 적은 편차를 갖는 결과를 검색 결과로 한다. 본 논문은 적절한 비교 계수 결정, 질의 길이의 변화에 따른 검색율의 변화, 데이터 각 분류별 유사도 검색 효율에 대한 실험을 하였으며, 본 논문에서 제안한 방법이 기존의 방법보다 우수한 성능 향상을 보였다.

MR머리 영상의 뇌 경계선 추출 및 디렉트 볼륨 렌더링 (Extraction of Brain Boundary and Direct Volume Rendering of MRI Human Head Data)

  • 송주환;권오봉;이건
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권6호
    • /
    • pp.705-716
    • /
    • 2002
  • 본 논문은 MR 머리 영상 데이타를 디렉트 볼륨 렌더링하는 방법을 제안한다. MR 영상을 가시화하기 위해서는 서피스 렌더링을 많이 사용하나 이 방법은 면을 추출하는 과정에서 면 내부의 정보를 잃어버린다. 디렉트 볼륨 렌더링은 면 내부의 정보를 추출 할 수 있으나 데이타의 특성상 MR 머리 영상 데이타에 이 방법을 적용하기가 쉽지 않다. 이 논문에서는 MR 머리 영상 데이타를 뇌와 뇌 이외의 구성 요소로 분할한 다음에 뇌 복셀값을 증가시키고 원래의 영상과 다시 결합시켜 디렉트 볼륨 렌더링을 시도하였다. 뇌 경계선은 히스토그램 경계값, 모포로지 연산, 스네이크 알고리즘(snakes algorithm)을 이용하여 추출하였다. 추출된 뇌 경계선는 육안으로 추출한 것의 91~95%의 유사도를 보인다. 제안된 디렉트 볼륨 렌더링은 뇌와 뇌 이외의 구성 요소를 동시에 3차원 가시화하였다.

집단화된 통계자료의 도수다각형에 근거한 새로운 분위수 계산법 (A new method for calculating quantiles of grouped data based on the frequency polygon)

  • 김혁주
    • Journal of the Korean Data and Information Science Society
    • /
    • 제28권2호
    • /
    • pp.383-393
    • /
    • 2017
  • 집단화되어 있는 통계자료의 통계량을 구하고자 하는 경우 통계량의 참값에 보다 가까운 값을 얻게 해주는 계산 방법을 사용하는 것이 바람직하다. 본 논문에서는 집단화된 자료의 분위수들을 계산하는 새로운 방법을 제시하였다. 제시된 방법의 주된 아이디어는, 히스토그램에 따라 그려지는 도수다각형에서 각 계급구간에 대응하는 오각형의 넓이를 그 계급구간의 도수보다 하나 많은 개수의 부분으로 등분함으로써 자룟값들을 계산하는 것이다. 제시된 방법을 모의실험을 통해 기존의 방법들과 비교하였는데, 통계학개론 교재에 주어져 있는 몇 가지의 자료를 대상으로 하였다. 모의자료의 생성 방법은, 각 계급구간에서 도수다각형에 의해 주어진 모양의 확률밀도함수를 갖는 분포를 찾아낸 뒤 역변환 방법을 이용하여, 이 분포를 따르는 모의자룟값들을 각 계급구간에서 주어진 도수와 같은 개수만큼 발생시키는 방식이다. 모의자료의 분위수와의 차의 제곱합을 기준으로 할 때 제시된 방법이 기존의 방법들보다 거의 모든 사분위수와 십분위수에서 우세한 결과를 주는 것을 볼 수 있었다.