• 제목/요약/키워드: practical fusion image

검색결과 33건 처리시간 0.026초

2D - PCA와 영상분할을 이용한 얼굴인식 (Face Recognition using 2D-PCA and Image Partition)

  • 이현구;김동주
    • 디지털산업정보학회논문지
    • /
    • 제8권2호
    • /
    • pp.31-40
    • /
    • 2012
  • Face recognition refers to the process of identifying individuals based on their facial features. It has recently become one of the most popular research areas in the fields of computer vision, machine learning, and pattern recognition because it spans numerous consumer applications, such as access control, surveillance, security, credit-card verification, and criminal identification. However, illumination variation on face generally cause performance degradation of face recognition systems under practical environments. Thus, this paper proposes an novel face recognition system using a fusion approach based on local binary pattern and two-dimensional principal component analysis. To minimize illumination effects, the face image undergoes the local binary pattern operation, and the resultant image are divided into two sub-images. Then, two-dimensional principal component analysis algorithm is separately applied to each sub-images. The individual scores obtained from two sub-images are integrated using a weighted-summation rule, and the fused-score is utilized to classify the unknown user. The performance evaluation of the proposed system was performed using the Yale B database and CMU-PIE database, and the proposed method shows the better recognition results in comparison with existing face recognition techniques.

딥러닝에 의한 항공사진 구름 분류 및 탐지 비교 실험 (Comparative Experiment of Cloud Classification and Detection of Aerial Image by Deep Learning)

  • 송준영;원태연;조수민;어양담;박소영;신상호;박진수;김창재
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.409-418
    • /
    • 2021
  • 항공사진 촬영량이 증가함에 따라 품질검사 자동화의 필요성이 대두되고 있다. 본 연구에서는 딥러닝 기법으로 항공사진 내 구름을 분류 또는 탐지하는 실험을 수행하였고, 또한 위성영상을 학습자료에 포함시켜 분류 및 탐지를 수행하였다. 실험에 사용한 알고리즘으로는 GoogLeNet, VGG16, Faster R-CNN과 YOLOv3을 적용하여 결과를 비교하였다. 또한 구름이 포함된 오류영상 확보의 현실적 제한을 고려하여 항공영상만 존재하는 학습 데이터세트에서 위성영상을 활용한 추가학습이 분류 및 탐지정확도에 영향을 미치는지도 분석하였다. 실험결과, 항공사진의 구름 분류와 탐지에서 각각 GoogLeNet과 YOLOv3 알고리즘이 상대적으로 우월한 정확도를 나타냈고, GoogLeNet은 구름에 대한 생산자정확도 83.8% 그리고 YOLOv3는 구름에 대한 생산자정확도 84.0%를 보여주었다. 또한, 위성영상 학습자료 추가가 항공사진 자료의 부족 시 대안으로 적용가능 함을 보여주었다.

The design of the Fall detection algorithm using the smartphone accelerometer sensor

  • Lee, Daepyo;Lee, Jong-Yong;Jung, Kye-Dong
    • International Journal of Advanced Culture Technology
    • /
    • 제5권2호
    • /
    • pp.54-62
    • /
    • 2017
  • Currently, falling to industrial field workers is causing serious injuries. Therefore, many researchers are actively studying the fall by using acceleration sensor, gyro sensor, pressure sensor and image information.Also, as the spread of smartphones becomes common, techniques for determining the fall by using an acceleration sensor built in a smartphone are being studied. The proposed method has complexity due to fusion of various sensor data and it is still insufficient to develop practical application. Therefore, in this paper, we use acceleration sensor module built in smartphone to collect acceleration data, propose a simple falling algorithm based on accelerometer sensor data after normalization and preprocessing, and implement an Android based app.

Ensemble Deep Learning Features for Real-World Image Steganalysis

  • Zhou, Ziling;Tan, Shunquan;Zeng, Jishen;Chen, Han;Hong, Shaobin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권11호
    • /
    • pp.4557-4572
    • /
    • 2020
  • The Alaska competition provides an opportunity to study the practical problems of real-world steganalysis. Participants are required to solve steganalysis involving various embedding schemes, inconsistency JPEG Quality Factor and various processing pipelines. In this paper, we propose a method to ensemble multiple deep learning steganalyzers. We select SRNet and RESDET as our base models. Then we design a three-layers model ensemble network to fuse these base models and output the final prediction. By separating the three colors channels for base model training and feature replacement strategy instead of simply merging features, the performance of the model ensemble is greatly improved. The proposed method won second place in the Alaska 1 competition in the end.

공간과 시간적 특징 융합 기반 유해 비디오 분류에 관한 연구 (Using the fusion of spatial and temporal features for malicious video classification)

  • 전재현;김세민;한승완;노용만
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.365-374
    • /
    • 2011
  • 최근 인터넷, IPTV/SMART TV, 소셜 네트워크 (social network)와 같은 정보 유통 채널의 다양화로 유해 비디오 분류 및 차단 기술 연구에 대한 요구가 높아가고 있으나, 현재까지는 비디오에 대한 유해성을 판단하는 연구는 부족한 실정이다. 기존 유해 이미지 분류 연구에서는 이미지에서의 피부 영역의 비율이나 Bag of Visual Words (BoVW)와 같은 공간적 특징들 (spatial features)을 이용하고 있다. 그러나, 비디오에서는 공간적 특징 이외에도 모션 반복성 특징이나 시간적 상관성 (temporal correlation)과 같은 시간적 특징들 (temporal features)을 추가적으로 이용하여 유해성을 판단할 수 있다. 기존의 유해 비디오 분류 연구에서는 공간적 특징과 시간적 특징들에서 하나의 특징만을 사용하거나 두 개의 특징들을 단순히 결정 단계에서 데이터 융합하여 사용하고 있다. 일반적으로 결정 단계 데이터 융합 방법은 특징 단계 데이터 융합 방법보다 높은 성능을 가지지 못한다. 본 논문에서는 기존의 유해 비디오 분류 연구에서 사용되고 있는 공간적 특징과 시간적 특징들을 특징 단계 융합 방법을 이용하여 융합하여 유해 비디오를 분류하는 방법을 제안한다. 실험에서는 사용되는 특징이 늘어남에 따른 분류 성능 변화와 데이터 융합 방법의 변화에 따른 분류 성능 변화를 보였다. 공간적 특징만을 이용하였을 때에는 92.25%의 유해 비디오 분류 성능을 보이는데 반해, 모션 반복성 특징을 이용하고 특징 단계 데이터 융합 방법을 이용하게 되면 96%의 향상된 분류 성능을 보였다.

정보미학적 해석을 통한 소셜네트워크 시각화의 예술적 활용 (The Artistic Practical Use of Social Network Visualization through the Information Aesthetic Interpretation)

  • 방승애;윤준성
    • 한국콘텐츠학회논문지
    • /
    • 제13권7호
    • /
    • pp.16-23
    • /
    • 2013
  • 본 논문은 소셜네트워크 시각화의 정보미학적 해석을 통해 소셜네트워크 시각화의 예술적 활용을 분석한다. 초창기 소셜네트워크 시각화는 개인과 집단의 상호관계를 규명하는 사회연결망 분석(Social Network Analysis: SNA)의 한 방법인 '소시오그램(sociogram)'의 형태로 등장했다. 이후 소셜네트워크가 점차 복잡해지면서 다양한 인간 관계망을 분석하는 기술이 등장했다. 초창기 소셜네트워크 시각화는 사회 구조를 측정하기 위한 실용적 목적을 지향했다. 그러나 현재 소셜네트워크 시각화는 정보 기반의 예술적 표현에 이르기까지 다양한 형태로 분화되었다. 본 논문은 이러한 소셜네트워크 시각화의 최근 예술적 활용에 주목하여 정보미학적 접근을 시도하고 예술적 활용 사례를 두 가지 범주로 나눈다. 먼저, 아날로그 기반의 정적인 그래프 시각화 유형을 분석한다. 두 번째는 소셜네트워크 웹 사이트와 텍스트 분석 기술을 연동하여 실시간 디지털 이미지를 생성하는 상호작용성 기반의 시각화 유형을 분석한다. 이러한 방법을 통해 예술과 공학의 융합적 패러다임을 제시하여 기존 예술 연구 영역의 한계를 벗어나고자 한다.

A Comprehensive Analysis of Deformable Image Registration Methods for CT Imaging

  • Kang Houn Lee;Young Nam Kang
    • 대한의용생체공학회:의공학회지
    • /
    • 제44권5호
    • /
    • pp.303-314
    • /
    • 2023
  • This study aimed to assess the practical feasibility of advanced deformable image registration (DIR) algorithms in radiotherapy by employing two distinct datasets. The first dataset included 14 4D lung CT scans and 31 head and neck CT scans. In the 4D lung CT dataset, we employed the DIR algorithm to register organs at risk and tumors based on respiratory phases. The second dataset comprised pre-, mid-, and post-treatment CT images of the head and neck region, along with organ at risk and tumor delineations. These images underwent registration using the DIR algorithm, and Dice similarity coefficients (DSCs) were compared. In the 4D lung CT dataset, registration accuracy was evaluated for the spinal cord, lung, lung nodules, esophagus, and tumors. The average DSCs for the non-learning-based SyN and NiftyReg algorithms were 0.92±0.07 and 0.88±0.09, respectively. Deep learning methods, namely Voxelmorph, Cyclemorph, and Transmorph, achieved average DSCs of 0.90±0.07, 0.91±0.04, and 0.89±0.05, respectively. For the head and neck CT dataset, the average DSCs for SyN and NiftyReg were 0.82±0.04 and 0.79±0.05, respectively, while Voxelmorph, Cyclemorph, and Transmorph showed average DSCs of 0.80±0.08, 0.78±0.11, and 0.78±0.09, respectively. Additionally, the deep learning DIR algorithms demonstrated faster transformation times compared to other models, including commercial and conventional mathematical algorithms (Voxelmorph: 0.36 sec/images, Cyclemorph: 0.3 sec/images, Transmorph: 5.1 sec/images, SyN: 140 sec/images, NiftyReg: 40.2 sec/images). In conclusion, this study highlights the varying clinical applicability of deep learning-based DIR methods in different anatomical regions. While challenges were encountered in head and neck CT registrations, 4D lung CT registrations exhibited favorable results, indicating the potential for clinical implementation. Further research and development in DIR algorithms tailored to specific anatomical regions are warranted to improve the overall clinical utility of these methods.

하이브리드 캐릭터의 조형 요건과 소비자 선호도와의 영향관계 분석 (An Analysis on the Formative Requirements for Hybrid Characters and Influencing Relationship with Consumer Preference)

  • 김준수
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권7호
    • /
    • pp.1389-1395
    • /
    • 2018
  • 하이브리드는 교차, 섞임, 침투, 융해, 융 복합 등 결합의 논리를 근간으로 해서 설명되어진다. 이러한 결합은 동질과 동종의 경우보다 이질과 이종의 경우에 더 창의적이고 더 효율적임을 보여주고 있고, 하이브리드 캐릭터는 새로운 창조적 이미지를 생산하기 위한 수단으로써 그 의미를 가진다. 이러한 맥락에서 하이브리드 캐릭터의 조형요건이 소비자 선호도에 어떻게 작용하는지 실질적 분석을 통해 영향관계를 분석하고자 한다. 이를 위해 독립변인은 캐릭터 조형 요건을 친근성, 독창성, 의미성, 다양성으로, 종속변인은 소비자 선호도로 하여 다중회귀분석을 실시하였다. 분석결과, 친근성, 독창성, 다양성은 소비자에게 긍정적 영향을 미치는 것으로 나타났고, 의미성은 소비자 선호도에 유의미한 영향력이 없는 것으로 나타났다.

CycleGan 딥러닝기반 인공CT영상 생성성능에 대한 입력 MR영상의 T1 및 T2 가중방식의 영향 (Dependency of Generator Performance on T1 and T2 weights of the Input MR Images in developing a CycleGan based CT image generator from MR images)

  • 이사무엘;정종훈;김진영;이연수
    • 한국방사선학회논문지
    • /
    • 제18권1호
    • /
    • pp.37-44
    • /
    • 2024
  • MR은 우수한 연조직 대비와 기능 정보를 보여줄 수 있지만, 방사선치료에서 정확한 선량 계산을 위해서는 CT영상의 전자밀도 정보가 필요하다. 방사선치료(Radiotherapy) 계획 워크플로우에서 MR영상과 CT영상을 융합하기 위해 환자는 일반적으로 MR과 CT영상 방식 모두에서 스캔된다. 최근에 딥러닝기술 덕분에 MR영상에서 딥러닝 기반의 CT영상 생성이 가능해졌다. 이로 인해 CT 스캔 작업을 할 필요가 없게 된다. 본 연구에서는 MR영상으로부터 CycleGan 딥러닝 기반 CT영상생성을 구현했다. T1가중이나 T2가중 중에 한 가지 또는 그 둘다의 MR영상을 가지고 합습한 3가지의 인공지능 CT생성기를 만들었다. 결과에서 우리는 T1가중 MR 영상 기반으로 학습한 생성기가 T1가중 MR영상이 입력될 때 다른 CT생성기보다 더 나은 결과를 생성할 수 있음을 발견했다. 반면, T2가중 MR영상 기반 CT생성기는 T2가중 MR영상을 입력 받을 때, 다른 시퀀스기반 CT생성기보다 더 나은 결과를 생성할 수 있습니다. MR영상을 기반으로 한 CT생성기는 곧 임상현장에 적용될 수 있는 기술이다. 특정 시퀀스 MR영상으로 학습한 머신러닝 CT생성기는 다른 시퀀스 MR영상으로 학습한 생성기보다 더 그 특정 시퀀스와 같은 MR영상을 입력받을 때 더 나은 CT영상을 생성할 수 있음을 보여주었다.

GLCM/GLDV 기반 Texture 알고리즘 구현과 고 해상도 영상분석 적용 (Implementation of GLCM/GLDV-based Texture Algorithm and Its Application to High Resolution Imagery Analysis)

  • 이기원;전소희;권병두
    • 대한원격탐사학회지
    • /
    • 제21권2호
    • /
    • pp.121-133
    • /
    • 2005
  • 화소들 사이의 관계를 고려해 Texture 영상을 생성해 내는 것을 의미하는 Texture 영상화는 유용한 영상 분석 방법 중의 하나로 잘 알려져 있고, 대부분의 상업적인 원격 탐사 소프트웨어들은 GLCM이라는 Texture 분석 기능을 제공하고 있다. 본 연구에서는, GLCM 알고리즘에 기반한 Texture 영상화 프로그램이 구현되었고, 추가적으로 GLDV에 기반을 둔 Texture 영상화 모듈 프로그램을 제공한다. 본 프로그램에서는 Homogeneity, Dissimilarity, Energy, Entropy, Angular Second Moment(ASM), Contrast 등과 같은 GLCN/GLDV의 6가지 Texture 변수에 따라 각각 이에 해당하는 Texture 영상들을 생성해 낸다. GLCM/GLDV Texture 영상 생성에서는 방향 의존성을 고려해야 하는데, 이 프로그램에서는 기본적으로 동-서, 북동-남서, 북-남, 북서-남동 등의 기본적인 방향설정을 제공한다. 또한 이 논문에서 새롭게 구현된 커널내의 모든 방향을 고려해서 평균값을 계산하는 Omni 방향 모드와 커널내의 중심 화소를 정하고_그 주변 화소에 대한 원형 방향을 고려하는 원형방향 모드를 지원한다. 또한 본 연구에서는 여러 가지 변수와 모드에 따라 얻어진 Texture 영상의 분석을 위하여 가상 영상 및 실제 위성 영상들에 의하여 생성된 Texture 영상간의 특징 분석과 상호상관 분석을 수행하였다. Texture 영상합성 응용시에는 영상의 생성시에 적용된 변수들에 대한 이해와 영상간의 상관도를 분석하는 과정이 필요할 것으로 생각된다.