• 제목/요약/키워드: block based extraction

검색결과 132건 처리시간 0.03초

생체 인식에서 치아 영상의 이용에 관한 연구 (Study on Using Teeth Images in Biometrics)

  • 김태우;조태경;이민수
    • 한국산학기술학회논문지
    • /
    • 제7권2호
    • /
    • pp.200-205
    • /
    • 2006
  • 본 논문은 치아의 전치교합(anterior occlusion)과 후치교합(posterior occlusion) 상태에서 획득된 치아 영상에 대하여 BMME와 LDA에 기반한 개인 인식 방법을 제안한다. 이 방법은 전치교합과 후치교합 상태의 치아 영상에서 치아 영역 추출, BMME, 패턴 인식 과정으로 구성된다. 이들 두 치아교합은 영상에서 일관된 자세의 치아 영상을 얻을 수 있도록 하며, BMME는 패턴 인식 과정에서 정합 오차를 줄이도록 해 준다. 치아는 딱딱하므로 치아영상을 사용하면 영상 획득 시 변형되지 않기 때문에 유용하다. 제안된 방법은 20명을 대상으로 개인 인증을 위한 치아인식 실험에서 성공적이었으며, 멀티 모달(multi-modal) 인증 시스템에 기여할 수 있음을 보였다.

  • PDF

컴퓨터 기반 평가 시스템의 보안성 강화 방안 (Security Improvement Methods for Computer-based Test Systems)

  • 김상현;조상영
    • 융합보안논문지
    • /
    • 제18권2호
    • /
    • pp.33-40
    • /
    • 2018
  • ICT 기술이 다양한 교육 분야에 적용되고 있지만 교육 평가 분야에 적용은 제한적이다. 컴퓨터 기반 평가는 기존의 지필평가에 비해 시간적/공간적 제약을 넘어서는 장점을 가지며 있지만 시험 당사자들의 부정행위에 취약하다. 본 논문에서는 컴퓨터 기반 평가의 보안성을 강화하기 위하여 실시간 모니터링 및 프로세스 관리 방안을 제안한다. 제안된 방식에서는 시험 화면을 주기적으로 캡처하여 교수 화면에 표시하여 실시간 감시가 가능하도록 하고 부정행위에 사용될 프로세스를 시험 전에 차단할 수 있도록 한다. 많은 학생들의 화면을 실시간으로 감시하기 위해서는 캡처된 원본 이미지의 효과적인 압축이 중요하다. 이를 위하여 이미지 압축 모듈의 사용, 해상도 약화, 재 압축의 3단계 압축 방식을 적용하였다. 이를 통하여 약 6MB의 원본 이미지를 약 3.8KB의 저장 이미지로 변환하였다. 부정 프로세스 차단 기능을 위하여 윈도우즈 API를 이용한 프로세스 추출 및 관리 기능을 사용하였다. 새로운 보안 강화 방안이 적용된 본 논문의 컴퓨터 기반 평가 시스템이 기존의 컴퓨터 기반평가 시스템과의 보안 관련 기능 비교를 통하여 우수함을 보여준다.

  • PDF

High-Capacity Robust Image Steganography via Adversarial Network

  • Chen, Beijing;Wang, Jiaxin;Chen, Yingyue;Jin, Zilong;Shim, Hiuk Jae;Shi, Yun-Qing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권1호
    • /
    • pp.366-381
    • /
    • 2020
  • Steganography has been successfully employed in various applications, e.g., copyright control of materials, smart identity cards, video error correction during transmission, etc. Deep learning-based steganography models can hide information adaptively through network learning, and they draw much more attention. However, the capacity, security, and robustness of the existing deep learning-based steganography models are still not fully satisfactory. In this paper, three models for different cases, i.e., a basic model, a secure model, a secure and robust model, have been proposed for different cases. In the basic model, the functions of high-capacity secret information hiding and extraction have been realized through an encoding network and a decoding network respectively. The high-capacity steganography is implemented by hiding a secret image into a carrier image having the same resolution with the help of concat operations, InceptionBlock and convolutional layers. Moreover, the secret image is hidden into the channel B of carrier image only to resolve the problem of color distortion. In the secure model, to enhance the security of the basic model, a steganalysis network has been added into the basic model to form an adversarial network. In the secure and robust model, an attack network has been inserted into the secure model to improve its robustness further. The experimental results have demonstrated that the proposed secure model and the secure and robust model have an overall better performance than some existing high-capacity deep learning-based steganography models. The secure model performs best in invisibility and security. The secure and robust model is the most robust against some attacks.

단안 영상 시퀸스에서 움직임 추정 기반의 3차원 깊이 정보 추출 알고리즘 (3D Depth Information Extraction Algorithm Based on Motion Estimation in Monocular Video Sequence)

  • 박준호;전대성;윤영우
    • 정보처리학회논문지B
    • /
    • 제8B권5호
    • /
    • pp.549-556
    • /
    • 2001
  • 2차원 영상으로 부터 3차원 영상으로 복원하는 일은 일반적으로 카메라의 초점에서 영상 프레임의 각 픽셀까지의 깊이 정보가 필요하고, 3차원 모델의 복원에 관한 일반적인 수작업은 많은 식나과 비용이 소모된다. 본 논문에서는 카메라의 움직임이 포함되어 있는 단안 영상 시퀸스로부터 3차원 영상 제작에 필요한 상대적인 깊이 정보를 실시간으로 추출하는 알고리즘을 제안하고, 하드웨어를 구현하기 위한여 알고리즘을 단순화하였다. 이 알고리즘은 카메라 이동에 의한 영상의 모든 점들의 움직임은 깊이 정보의 종속적이라는 사실에 기반을 두고 있다. 불록매칭 알고리즘에 기반을 둔 전역 움직임 탐색에 의한 움직임 벡터를 추출한 후, 카메라 회전과 확대/축소에 관한 카메라 움직임 보상을 실행하고 깉이 정보 추출 과정이 전개된다. 깊이 정보 추출 과정은 단안 영상에서 객체의 이동처리를 분석하여 움직임 벡터를 구하고 프레임내의 모든 픽셀에 대한 평균 깊이를 계산한 후, 평균 깊이에 대한 각 블록의 상대적 깊이를 산출하였다. 모의 실험 결과 전경과 배경에 속하는 영역의 깊이는 인간 시각 체계가 인식하는 상대적인 깊이와 일치한다는 것을 보였다.

  • PDF

컬러 히스토그램과 형상 기반 특징 추출을 이용한 내용 기반 영상 검색 (The Content-Based Image Retrieval by using Color Histogram and Shape-Based Feature Extraction)

  • 강현인;주용완;백광렬
    • 전자공학회논문지S
    • /
    • 제36S권10호
    • /
    • pp.113-122
    • /
    • 1999
  • 하나의 질의 영상에 대하여 영상 데이터 베이스로부터 유사도가 높은 영상을 찾고자 할 때에는 유사도의 척도로 컬러 히스토그램 인터섹션법과 형상 특징의 비교법, 질감 특징의 비교법 등이 사용된다. 그리고 앞의 개별 특징 중 2가지 특징을 조합한 방법은 유사도의 산출 결과의 정확도를 높이기 위하여 사용된다. 본 논문에서는 히스토그램 인터섹션법과 형상 특징을 반영하는 블록화된 영역별 히스토그램 인터섹션 법을 사용하여 유사도 높은 영상을 얻는 방법을 제안한다. 이 방법은 서로 다른 2가지 특징을 조합하여 사용한 방법과 비교할 때 비슷한 정확도와 상대적으로 빠른 처리 속도를 달성하는 고효율의 알고리즘이다. 시뮬레이션을 통하여 제안한 알고리즘은 600개로 구성된 다양한 영상의 데이터 베이스 내에서 영상 검색이 수행되고 기존의 다른 알고리즘에 비하여 상대적으로 빠르고 신뢰도가 높은 유사도 척도임을 보인다.

  • PDF

SDH와 SONET망의 동기화를 위한 포인터 해석기의 FPGA 구현 (FPGA Implementation of a Pointer Interpreter for SDH/SONET Network Synchronization)

  • 이상훈;박남천;신위재
    • 융합신호처리학회논문지
    • /
    • 제5권3호
    • /
    • pp.230-235
    • /
    • 2004
  • 본 논문에서는 동기식 광전송망인 SDH와 SONET망의 동기화를 위해 적용되는 포인터 해석기의 FPGA 구현을 다룬다. 설계된 포인터 해석기는 포인터 추출 모듈과 포인터 해석 모듈로 구성된다. 포인터 추출 모듈은 6480진 카운터, 시프트레지스터, 포인터 워드 동기화 블록으로 구성되며, 51.84 Mb/s AU-3/STS-1 프레임 데이터에서 프레임 동기신호에 의해 H1, H2 포인터 워드 값을 찾고 이를 8 분주하여 바이트 레벨의 6.48 Mb/s로 동기화 시킨다. 포인터 해석 모듈은 majority vote, 포인터 워드 유ㆍ무효 검사, 포인터 정렬판단, NORM, AIS, LOP 상태 검사 블록들로 구성되며, 포인터 추출 모듈에서 추출한 동기화된 포인터 워드를 포인터 상태 천이 알고리즘에 의하여 주요 포인터 상태인 LOP, AIS, NORM으로 해석하고 포인터 정렬을 판단한다. VHDL로 설계하여 Xilinx Virtex XCV200PQ240 FPGA 칩으로 구현된 포인터 해석기의 시뮬레이션 결과는 프레임 데이터에서의 포인터 워드의 정확한 추출과 추출된 포인터 값에 따른 각종 포인터 상태를 판단함을 보여주었다. 본 논문에서 제시한 포인터 해석기는 광전송시스템의 수신 종단노드에서 155 Mb/s STM-1/STS-3 프레임의 포인터 해석을 위해 적용할 수 있어 SDH와 SONET망 모두에 활용할 수 있는 이점이 있다.

  • PDF

A new lightweight network based on MobileNetV3

  • Zhao, Liquan;Wang, Leilei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.1-15
    • /
    • 2022
  • The MobileNetV3 is specially designed for mobile devices with limited memory and computing power. To reduce the network parameters and improve the network inference speed, a new lightweight network is proposed based on MobileNetV3. Firstly, to reduce the computation of residual blocks, a partial residual structure is designed by dividing the input feature maps into two parts. The designed partial residual structure is used to replace the residual block in MobileNetV3. Secondly, a dual-path feature extraction structure is designed to further reduce the computation of MobileNetV3. Different convolution kernel sizes are used in the two paths to extract feature maps with different sizes. Besides, a transition layer is also designed for fusing features to reduce the influence of the new structure on accuracy. The CIFAR-100 dataset and Image Net dataset are used to test the performance of the proposed partial residual structure. The ResNet based on the proposed partial residual structure has smaller parameters and FLOPs than the original ResNet. The performance of improved MobileNetV3 is tested on CIFAR-10, CIFAR-100 and ImageNet image classification task dataset. Comparing MobileNetV3, GhostNet and MobileNetV2, the improved MobileNetV3 has smaller parameters and FLOPs. Besides, the improved MobileNetV3 is also tested on CPU and Raspberry Pi. It is faster than other networks

GLIBP: Gradual Locality Integration of Binary Patterns for Scene Images Retrieval

  • Bougueroua, Salah;Boucheham, Bachir
    • Journal of Information Processing Systems
    • /
    • 제14권2호
    • /
    • pp.469-486
    • /
    • 2018
  • We propose an enhanced version of the local binary pattern (LBP) operator for texture extraction in images in the context of image retrieval. The novelty of our proposal is based on the observation that the LBP exploits only the lowest kind of local information through the global histogram. However, such global Histograms reflect only the statistical distribution of the various LBP codes in the image. The block based LBP, which uses local histograms of the LBP, was one of few tentative to catch higher level textural information. We believe that important local and useful information in between the two levels is just ignored by the two schemas. The newly developed method: gradual locality integration of binary patterns (GLIBP) is a novel attempt to catch as much local information as possible, in a gradual fashion. Indeed, GLIBP aggregates the texture features present in grayscale images extracted by LBP through a complex structure. The used framework is comprised of a multitude of ellipse-shaped regions that are arranged in circular-concentric forms of increasing size. The framework of ellipses is in fact derived from a simple parameterized generator. In addition, the elliptic forms allow targeting texture directionality, which is a very useful property in texture characterization. In addition, the general framework of ellipses allows for taking into account the spatial information (specifically rotation). The effectiveness of GLIBP was investigated on the Corel-1K (Wang) dataset. It was also compared to published works including the very effective DLEP. Results show significant higher or comparable performance of GLIBP with regard to the other methods, which qualifies it as a good tool for scene images retrieval.

변형된 면적기반영역선별 기법에 의한 문자영상분할 (Handwritten Image Segmentation by the Modified Area-based Region Selection Technique)

  • 황재호
    • 대한전자공학회논문지SP
    • /
    • 제43권5호
    • /
    • pp.30-36
    • /
    • 2006
  • 변형된 면적기반영역선별 기법으로 문자영상 속에 내재되어 있던 영역 분할을 회복하는 새로운 기법을 제안한다. 정보영역과 바탕영역으로 양분되어 있는 이진 원영상에 비해 오염 및 훼손으로 관측영상은 얼룩점과 잡음이 전체 영상에 섞여 다수의 크고 작은 영역들이 혼재된 그레이스케일 형태가 된다. 이러한 영상을 종래의 문턱치 처리나 확률적 기법으로 영역 분할하려면 이진영상으로 전환시킴에 의한 영역 형태 변형 문제가 발생한다. 이 문제를 최소화하기 위해 마름모꼴 블록을 채택한 반복조건부양식(iterated conditional mode, ICM) 기법으로 이진 영상을 구현하여 일차적으로 영역들의 집합으로 분류하였다. 그 다음 현재고려중인 화소에서 화소의 영역형성 판별과 영역의 면적을 산출하였다. 이를 전체 화소에 걸쳐 순차적으로 확산하여 해당영역들의 정보영역으로의 귀속 여부를 선택적으로 판정 분할함으로 정보영역 본래 형태를 복원하였다. 이 때 지정 영역들의 산출 면적들은 하나의 집합으로 배속 정렬되며 확률처리로 얻은 판별 파라미터 값에 의해 선별된다. 그레이스케일 탁본영상을 대상으로 종래의 문턱치 영역분할 기법과 ICM 기법도 함께 실험하였다. 그 결과 종래의 기법에 비해 우수한 영역분할 효과를 얻을 수 있었다.

MPEG-4 기반의 영상전화기 구현을 위한 실시간 변환영역(객체) 추출에 관한 알고리즘 (A Study for a real-time variety region(object) extraction algorithm to implement MPEG-4 based Video Phones.)

  • 오인권;손영우;남궁 재찬
    • 한국통신학회논문지
    • /
    • 제29권1C호
    • /
    • pp.92-101
    • /
    • 2004
  • 논문에서는 MPEG-4(Moving Picture Expert Group-4) 객체기반 부호화를 위하여 영상에서 실 시간적으로 변화영역(객체)을 추출하는 알고리즘에 대하여 제안한다. 기존의 객체 분리방법 들은 Off-Line 방법으로 객체를분리하므로 실시간 처리를 필요로 하는 영상전화나 영상회의 시스템에서는 사용할 수 없었다. 그리고 또 MPEG-4표준의 버전1에서 권장하는 객체분할 방식인 공간적인 분할(Spatial Segmentation)방법과 시간적인 분할(Temporal Segmentation)방법은 픽셀단위로 연산을 하므로 연산의 복잡도가 높아서 실시간 영상전송에 어렵다. 그러나 이 논문에서 제안하는 알고리즘은 연산단위를 픽셀단위로 연산하는 것이 아니라 매크로블록 단위로 연산이 이루어지므로 실시간 전송을 가능케 한다. 그러나MPEG-4권고 안에서 제시한 알고리즘처럼 이 번에 제안한 알고리즘도 한 영상에서 여러 개의 객체를 추출하는 것이 이루어지지 않았다. 그리고 전체 시스템 구성을 보면 크게 부호기와 복호기로 나누어지고 부호기에 본 논문에서 제안한 실시간 객체추출 알고리즘이 전처리 단으로 삽입되어 구현되었다.