• Title/Summary/Keyword: 행렬화 이미지

Search Result 31, Processing Time 0.029 seconds

Compression Method for CNN Models Using DCT (DCT를 이용한 CNN 모델의 압축방법)

  • Kim, SeungHwan;Park, Eun-Soo;Ghulam, Mujtaba;Ryu, Eun-Seok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.553-556
    • /
    • 2020
  • 최근 이미지 인식을 위한 Convolutional Neural Network(CNN) 모델의 경량화에 관한 연구가 활발하게 이루어지고 있다. 그중 양자화는 모델을 구성하는 가중치의 크기를 낮추는 방법이다. 기존의 CNN 모델에서 가장 큰 비중을 하는 Fully Connected Layer(FCL)는 내부적으로 32 Bit의 실수 행렬로 표현된다. 본 논문에서는 미리 학습된 실수 가중치를 더 작은 비트의 정수 행렬로 양자화한다. 양자화된 행렬에 대해서 영상 압축 등에서 사용하는 Discrete Cosine Transform(DCT)을 통해 주파수 영역으로 변환한 후 고주파 영역을 생략하는 손실압축 방법을 제안한다. 실험을 통해 그 과정에서 손실에 따른 정확도의 변화를 나타낸다.

  • PDF

Robust Algorithm using SVD for Data Hiding in the Color Image against Various Attacks (특이값 분해를 이용한 다양한 이미지 변화에 강인한 정보 은닉 알고리즘)

  • Lee, Donghoon;Heo, Jun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.28-30
    • /
    • 2011
  • 본 논문에서는 특이값 분해(Singular Value Decomposition)을 이용하여 이미지의 주파수 영역 내에 정보를 은닉하는 방법을 제시한다. 이미지를 주파수 영역으로 변환하기 위하여 블록 단위로 이산 코사인 변환(Discrete Cosine Transform)을 수행한다. 이후 인접한 네 블록의 DC 값들로 구성된 행렬의 특이값을 은닉하고자 하는 정보에 따라 변환한다. 원래의 DC 값은 정보에 따라 변환된 DC 값으로 대체되고 역 이산 코사인 변환(Inverse Discrete Cosine Transform)을 수행하여 정보가 은닉된 이미지를 얻는다. 제안하는 알고리즘의 성능을 분석하기 위해 JPEG(Joint Photographic Coding Experts Group), 선명화(Sharpening), 히스토그램 등화(Histogram Equalization)와 같이 다양한 이미지 변화를 거친 후, 은닉된 정보의 신뢰도를 비교한다.

  • PDF

Performance Comparison of Structured Measurement Matrix for Block-based Compressive Sensing Schemes (구조화된 측정 행렬에 따른 블록 기반 압축 센싱 기법의 성능 비교)

  • Ryu, Joong-seon;Kim, Jin-soo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.20 no.8
    • /
    • pp.1452-1459
    • /
    • 2016
  • Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing in and under Nyquist rate representation. Generally, the measurement prediction usually works well with a small block while the quality of recovery is known to be better with a large block. In order to overcome this dilemma, conventional research works use a structural measurement matrix with which compressed sensing is done in a small block size but recovery is performed in a large block size. In this way, both prediction and recovery are made to be improved at same time. However, the conventional researches did not compare the performances of the structural measurement matrix, affected by the block size. In this paper, by expanding a structural measurement matrix of conventional works, their performances are compared with different block sizes. Experimental results show that a structural measurement matrix with $4{\times}4$ Hadamard transform matrix provides superior performance in block size 4.

VLSI Architecture of Fast Jacket Transform (Fast Jacket Transform의 VLSI 아키텍쳐)

  • 유경주;홍선영;이문호;정진균
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.769-772
    • /
    • 2001
  • Waish-Hadamard Transform은 압축, 필터링, 코드 디자인 등 다양한 이미지처리 분야에 응용되어왔다. 이러한 Hadamard Transform을 기본으로 확장한 Jacket Transform은 행렬의 원소에 가중치를 부여함으로써 Weighted Hadamard Matrix라고 한다. Jacket Matrix의 cocyclic한 특성은 암호화, 정보이론, TCM 등 더욱 다양한 응용분야를 가질 수 있고, Space Time Code에서 대역효율, 전력면에서도 효율적인 특성을 나타낸다 [6],[7]. 본 논문에서는 Distributed Arithmetic(DA) 구조를 이용하여 Fast Jacket Transform(FJT)을 구현한다. Distributed Arithmetic은 ROM과 어큐뮬레이터를 이용하고, Jacket Watrix의 행렬을 분할하고 간략화하여 구현함으로써 하드웨어의 복잡도를 줄이고 기존의 시스톨릭한 구조보다 면적의 이득을 얻을 수 있다. 이 방법은 수학적으로 간단할 뿐 만 아니라 행렬의 곱의 형태를 단지 덧셈과 뺄셈의 형태로 나타냄으로써 하드웨어로 쉽게 구현할 수 있다. 이 구조는 입력데이타의 워드길이가 n일 때, O(2n)의 계산 복잡도를 가지므로 기존의 시스톨릭한 구조와 비교하여 더 적은 면적을 필요로 하고 FPGA로의 구현에도 적절하다.

  • PDF

Study on the Diffuse Texture Acquisition of a Real Object (실세계 객체의 디퓨즈 텍스쳐 획득에 관한 연구)

  • Kim, Kang-Yeon;Lee, Jae-Y.;Yoo, Jae-Doug;Lee, Kwan-H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1222-1227
    • /
    • 2006
  • 본 연구의 목적은 객체의 형상정보(3D mesh)와 색/질감정보(image)를 이용하여 텍스쳐 맵핑된 고품질의 가상모델을 생성하는데 있다. 3 차원 형상정보에 대응하는 이미지 상의 텍스쳐 좌표 관계를 구하기 위해 오브젝트 좌표계와 카메라 좌표계 사이의 변환행렬, 카메라의 초점거리, 카메라 CCD 와 프레임상의 이미지 사이의 aspect ratio 를 파라미터로 하는 3D-2D 정합을 수행한다. 이러한 3D-2D 정합을 효율적으로 수행하기 위하여, 카메라 내부파라미터 검정단계, 신뢰도가 높은 초기해 설정단계, 비선형 최적화(Newton method) 단계로 접근한다. 또한, 색/질감정보로 이용되는 객체의 이미지는 촬영조건에 의해 스펙큘러(specular)나 이미지 픽셀값의 포화상태(saturation) 등의 결점을 포함한다. 영상내의 스펙큘러 좌표와 3D-2D 정합의 결과를 이용하여 촬영 당시의 광원을 추정하고, 근사화된 빛반사도 함수(BRDF)를 이용하여, 텍스쳐의 픽셀값 변조를 통해 이미지 촬영 당시의 광원효과가 제거된 디퓨즈 텍스쳐를 획득한다. 본 연구에서는 퐁(Phong)의 모델을 근사화한 빛 반사도 함수 모델로 사용하였다.

  • PDF

Rebuilding of Image Compression Algorithm Based on the DCT (discrete cosine transform) (이산코사인변환 기반 이미지 압축 알고리즘에 관한 재구성)

  • Nam, Soo-Tai;Jin, Chan-Yong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.23 no.1
    • /
    • pp.84-89
    • /
    • 2019
  • JPEG is a most widely used standard image compression technology. This research introduces the JPEG image compression algorithm and describes each step in the compression and decompression. Image compression is the application of data compression on digital images. The DCT (discrete cosine transform) is a technique for converting a time domain to a frequency domain. First, the image is divided into 8 by 8 pixel blocks. Second, working from top to bottom left to right, the DCT is applied to each block. Third, each block is compressed through quantization. Fourth, the matrix of compressed blocks that make up the image is stored in a greatly reduced amount of space. Finally if desired, the image is reconstructed through decompression, a process using IDCT (inverse discrete cosine transform). The purpose of this research is to review all the processes of image compression / decompression using the discrete cosine transform method.

A study on Robust Feature Image for Texture Classification and Detection (텍스쳐 분류 및 검출을 위한 강인한 특징이미지에 관한 연구)

  • Kim, Young-Sub;Ahn, Jong-Young;Kim, Sang-Bum;Hur, Kang-In
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.10 no.5
    • /
    • pp.133-138
    • /
    • 2010
  • In this paper, we make up a feature image including spatial properties and statistical properties on image, and format covariance matrices using region variance magnitudes. By using it to texture classification, this paper puts a proposal for tough texture classification way to illumination, noise and rotation. Also we offer a way to minimalize performance time of texture classification using integral image expressing middle image for fast calculation of region sum. To estimate performance evaluation of proposed way, this paper use a Brodatz texture image, and so conduct a noise addition and histogram specification and create rotation image. And then we conduct an experiment and get better performance over 96%.

Off-Line Recognition of Unconstrained Handwritten Korean Words using Over-Segementation and Lexicon Driven Post-Processing Techniques (과다 분리 및 사전 후처리 기법을 이용한 한글이 포함된 무제약 필기 문자열의 오프라인 인식)

  • Jeong, Seon-Hwa;Kim, Su-Hyeong
    • Journal of KIISE:Software and Applications
    • /
    • v.26 no.5
    • /
    • pp.647-656
    • /
    • 1999
  • 본 논문에서는 오프라인 무제약 필기 한글 단어를 인식하기 위한 시스템을 제안한다. 제안된 단어 인식 시스템은 크게 다석가지 모듈-문자 분리,조합행렬생성, 특징 추출, 문자인식, 사전 후처리 -로 구성되어 있다. 문자 분리 모듈은 입력된 단어 영상을 하나의 문자보다 더 작은 이미지 조각으로 과다 분리하며 , 조합 행렬 생성모듈에서는 동적 프로그래밍 기법을 이용하여 분리된 이미지 조각들로부터 사전상의 모든 단어들과 대응되는 가능한 모든 조합을 생성한다. 문자인식모듈은 각 그룹에 대하여 일괄적으로 얻어진 특징과 유니그램을 이용하여 문자인식을 수행한다. 마지막으로 사전 후처리 모듈에서는 각 그룹에 대한 문자인식 결과와 단어 사전을 사용하여 입력단어에 대한 최종 인식 결과를 도출한다. 본 문에서 제안한 방법은 문자 분리, 문자 인식 및 후처리를 상호 보완적으로 결합함으로써 한글이 포함된 무제약 필기 문자열을 효과적으로 인식할 수 있다. 제안된 시스템의 성능을 평가하기 위하여 실제 우편 봉투 상에 쓰여진 필기 한글 단어 200개를 대상으로 실험을 하였다. 실험 결과 200개의 단어중 172개의 단어를 정인식하여 86%의 정확도를 얻을 수 있었으며 나머지 28개의 오인식된 단어들을 분석한 결과 대부분의 오류는 문자 인식기의 낮은 신뢰도 때문임을 알 수 있었다. 또한, 하나의 단어를 인식하기 위하여 약 2초가 소요되었다.

The Efficient 32×32 Inverse Transform Design for High Performance HEVC Decoder (고성능 HEVC 복호기를 위한 효율적인 32×32 역변환기 설계)

  • Han, Geumhee;Ryoo, Kwangki
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.17 no.4
    • /
    • pp.953-958
    • /
    • 2013
  • In this paper, an efficient hardware architecture is proposed for $32{\times}32$ inverse transform HEVC decoder. HEVC is a new image compression standard to deal with much larger image sizes compared with conventional image codecs, such as 4k, 8k images. To process huge image data effectively, it adopts various new block structures. Theses blocks consists of $4{\times}4$, $8{\times}8$, $16{\times}16$, and $32{\times}32$ block. This paper suggests an effective structures to process $32{\times}32$ inverse transform. This structure of inverse transform adopts the decomposed $16{\times}16$ matrixes of $32{\times}32$ matrix, and simplified the operations by implementing multiplying with shifters and adders. Additionally the operations frequency is downed by using multicycle paths. Also this structure can be easily adopted to a multi-size transform or a forward transform block in HEVC codec.

Algorithm for Extract Region of Interest Using Fast Binary Image Processing (고속 이진화 영상처리를 이용한 관심영역 추출 알고리즘)

  • Cho, Young-bok;Woo, Sung-hee
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.22 no.4
    • /
    • pp.634-640
    • /
    • 2018
  • In this paper, we propose an automatic extraction algorithm of region of interest(ROI) based on medical x-ray images. The proposed algorithm uses segmentation, feature extraction, and reference image matching to detect lesion sites in the input image. The extracted region is searched for matching lesion images in the reference DB, and the matched results are automatically extracted using the Kalman filter based fitness feedback. The proposed algorithm is extracts the contour of the left hand image for extract growth plate based on the left x-ray input image. It creates a candidate region using multi scale Hessian-matrix based sessionization. As a result, the proposed algorithm was able to split rapidly in 0.02 seconds during the ROI segmentation phase, also when extracting ROI based on segmented image 0.53, the reinforcement phase was able to perform very accurate image segmentation in 0.49 seconds.