• 제목/요약/키워드: Texture Detection

검색결과 239건 처리시간 0.026초

바이올린 음원을 이용한 스펙트랄 롤오프 포인트의 최적점 검출 (Detection of the Optimum Spectral Roll-off Point using Violin as a Sound Source)

  • 김재천
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권1호
    • /
    • pp.51-56
    • /
    • 2007
  • 음악을 분류하기 위해 특성함수를 사용하여 추출한 특성값 벡터를 사용한다. 본 실험에서는 특성값 벡터를 추출하기 위해 스펙트랄 롤오프, 분산, 평균 피크레벨을 사용하였다. 이중에서 스펙트랄 롤오프는 저음프레임과 고음프레임의 상대적인 비를 나타낸다. 최적의 롤오프 포인트를 찾기 위하여 롤오프 포인트를 0.05에서 0.9까지 0.05간격으로 증가시키며 반복실험 하였다. 롤오프 포인트를 증가시키며 분류성공률을 관찰하였다. 그리고 실험에 사용된 음원데이터는 바로크바이올린과 현대바이올린 연주이다. 두 종류의 악기는 모양과 주파수대역에 있어서 유사하지만 약간의 대역차와 질감의 차이를 가지고 있다. 이러한 특성이 최적의 롤오프 포인트를 찾는데 유용할 것으로 판단하였다. 실험결과 롤오프 포인트 0.85에서 가장 높은 분류성공률 85%를 나타냈다.

  • PDF

HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식 (Automatic Facial Expression Recognition using Tree Structures for Human Computer Interaction)

  • 신윤희;주진선;김은이;;;박세현;정기철
    • 한국산업정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.60-68
    • /
    • 2007
  • 본 논문에서는 자동으로 사용자의 얼굴 표정을 인식할 수 있는 시스템을 제안한다. 제안된 시스템은 휴리스틱 정보를 기반으로 설계된 트리 구조를 이용하여 행복, 역겨움, 놀람의 감정과 무표정을 인식한다. 카메라로부터 영상이 들어오면 먼저 얼굴 특징 검출기에서 피부색 모델과 연결성분 분석을 이용하여 얼굴 영역을 획득한다. 그 후에 신경망 기반의 텍스처 분류기를 사용하여 눈 영역과 비 눈 영역으로 구분한 뒤 눈의 중심 영역과 에지 정보를 기반으로 하여 눈, 눈썹, 입 등의 얼굴 특징을 찾는다. 검출된 얼굴 특징들은 얼굴 표정 인식기에 사용되며 얼굴 인식기는 이를 기반으로 한 decision tree를 이용하여 얼굴 감정을 인식한다. 제안된 방법의 성능을 평가하기 위해 MMI JAFFE, VAK DB에서 총 180장의 이미지를 사용하여 테스트하였고 약 93%의 정확도를 보였다.

  • PDF

시드 기반 영역확장기법을 이용한 고해상도 위성영상 분할기법 개발 (High Resolution Satellite Image Segmentation Algorithm Development Using Seed-based region growing)

  • 변영기;김용일
    • 한국측량학회지
    • /
    • 제28권4호
    • /
    • pp.421-430
    • /
    • 2010
  • 영상분할은 관심대상이 되는 물체의 영역을 추출하기 위한 객체기반 영상분류의 전처리과정으로서 원격탐사 영상분석에서 그 중요성 날로 커지고 있다. 본 연구에서는 개선된 SRG(Seeded Region Growing) 기법과 영역병합과정을 이용하여 고해상도 영상분할을 위한 새로운 방법을 제안한다. 이를 위해 우선 QuickBird 융합영상에서 추출된 다중분광 에지정보를 이용하여 초기 시드포인트를 자동으로 추출하였다. 추출된 시드포인트에 영상의 기하학적인 정보와 분광정보를 반영할 수 있는 개선된 SRG 기법을 적용하여 초기 영상 분할을 수행하였다. 최종적으로 앞선 초기분할 결과 향상을 위해 분할된 영역의 평균분광정보를 활용하여 영역병합을 수행하여 최종분할결과를 도출하였다. 제안된 기법의 효율성을 평가하기 위해 무감독 영상분할 평가측정치를 이용하여 정확도 평가를 수행하였다. 실험결과 제안한 기법은 고해상도 영상분할에 유용하게 적용될 수 있으리라 판단된다.

A CPU-GPU Hybrid System of Environment Perception and 3D Terrain Reconstruction for Unmanned Ground Vehicle

  • Song, Wei;Zou, Shuanghui;Tian, Yifei;Sun, Su;Fong, Simon;Cho, Kyungeun;Qiu, Lvyang
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1445-1456
    • /
    • 2018
  • Environment perception and three-dimensional (3D) reconstruction tasks are used to provide unmanned ground vehicle (UGV) with driving awareness interfaces. The speed of obstacle segmentation and surrounding terrain reconstruction crucially influences decision making in UGVs. To increase the processing speed of environment information analysis, we develop a CPU-GPU hybrid system of automatic environment perception and 3D terrain reconstruction based on the integration of multiple sensors. The system consists of three functional modules, namely, multi-sensor data collection and pre-processing, environment perception, and 3D reconstruction. To integrate individual datasets collected from different sensors, the pre-processing function registers the sensed LiDAR (light detection and ranging) point clouds, video sequences, and motion information into a global terrain model after filtering redundant and noise data according to the redundancy removal principle. In the environment perception module, the registered discrete points are clustered into ground surface and individual objects by using a ground segmentation method and a connected component labeling algorithm. The estimated ground surface and non-ground objects indicate the terrain to be traversed and obstacles in the environment, thus creating driving awareness. The 3D reconstruction module calibrates the projection matrix between the mounted LiDAR and cameras to map the local point clouds onto the captured video images. Texture meshes and color particle models are used to reconstruct the ground surface and objects of the 3D terrain model, respectively. To accelerate the proposed system, we apply the GPU parallel computation method to implement the applied computer graphics and image processing algorithms in parallel.

A Detailed Review on Recognition of Plant Disease Using Intelligent Image Retrieval Techniques

  • Gulbir Singh;Kuldeep Kumar Yogi
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.77-90
    • /
    • 2023
  • Today, crops face many characteristics/diseases. Insect damage is one of the main characteristics/diseases. Insecticides are not always effective because they can be toxic to some birds. It will also disrupt the natural food chain for animals. A common practice of plant scientists is to visually assess plant damage (leaves, stems) due to disease based on the percentage of disease. Plants suffer from various diseases at any stage of their development. For farmers and agricultural professionals, disease management is a critical issue that requires immediate attention. It requires urgent diagnosis and preventive measures to maintain quality and minimize losses. Many researchers have provided plant disease detection techniques to support rapid disease diagnosis. In this review paper, we mainly focus on artificial intelligence (AI) technology, image processing technology (IP), deep learning technology (DL), vector machine (SVM) technology, the network Convergent neuronal (CNN) content Detailed description of the identification of different types of diseases in tomato and potato plants based on image retrieval technology (CBIR). It also includes the various types of diseases that typically exist in tomato and potato. Content-based Image Retrieval (CBIR) technologies should be used as a supplementary tool to enhance search accuracy by encouraging you to access collections of extra knowledge so that it can be useful. CBIR systems mainly use colour, form, and texture as core features, such that they work on the first level of the lowest level. This is the most sophisticated methods used to diagnose diseases of tomato plants.

Instance segmentation with pyramid integrated context for aerial objects

  • Juan Wang;Liquan Guo;Minghu Wu;Guanhai Chen;Zishan Liu;Yonggang Ye;Zetao Zhang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.701-720
    • /
    • 2023
  • Aerial objects are more challenging to segment than normal objects, which are usually smaller and have less textural detail. In the process of segmentation, target objects are easily omitted and misdetected, which is problematic. To alleviate these issues, we propose local aggregation feature pyramid networks (LAFPNs) and pyramid integrated context modules (PICMs) for aerial object segmentation. First, using an LAFPN, while strengthening the deep features, the extent to which low-level features interfere with high-level features is reduced, and numerous dense and small aerial targets are prevented from being mistakenly detected as a whole. Second, the PICM uses global information to guide local features, which enhances the network's comprehensive understanding of an entire image and reduces the missed detection of small aerial objects due to insufficient texture information. We evaluate our network with the MS COCO dataset using three categories: airplanes, birds, and kites. Compared with Mask R-CNN, our network achieves performance improvements of 1.7%, 4.9%, and 7.7% in terms of the AP metrics for the three categories. Without pretraining or any postprocessing, the segmentation performance of our network for aerial objects is superior to that of several recent methods based on classic algorithms.

Automatic detection of discontinuity trace maps: A study of image processing techniques in building stone mines

  • Mojtaba Taghizadeh;Reza Khalou Kakaee;Hossein Mirzaee Nasirabad;Farhan A. Alenizi
    • Geomechanics and Engineering
    • /
    • 제36권3호
    • /
    • pp.205-215
    • /
    • 2024
  • Manually mapping fractures in construction stone mines is challenging, time-consuming, and hazardous. In this method, there is no physical access to all points. In contrast, digital image processing offers a safe, cost-effective, and fast alternative, with the capability to map all joints. In this study, two methods of detecting the trace of discontinuities using image processing in construction stone mines are presented. To achieve this, we employ two modified Hough transform algorithms and the degree of neighborhood technique. Initially, we introduced a method for selecting the best edge detector and smoothing algorithms. Subsequently, the Canny detector and median smoother were identified as the most efficient tools. To trace discontinuities using the mentioned methods, common preprocessing steps were initially applied to the image. Following this, each of the two algorithms followed a distinct approach. The Hough transform algorithm was first applied to the image, and the traces were represented through line drawings. Subsequently, the Hough transform results were refined using fuzzy clustering and reduced clustering algorithms, along with a novel algorithm known as the farthest points' algorithm. Additionally, we developed another algorithm, the degree of neighborhood, tailored for detecting discontinuity traces in construction stones. After completing the common preprocessing steps, the thinning operation was performed on the target image, and the degree of neighborhood for lineament pixels was determined. Subsequently, short lines were removed, and the discontinuities were determined based on the degree of neighborhood. In the final step, we connected lines that were previously separated using the method to be described. The comparison of results demonstrates that image processing is a suitable tool for identifying rock mass discontinuity traces. Finally, a comparison of two images from different construction stone mines presented at the end of this study reveals that in images with fewer traces of discontinuities and a softer texture, both algorithms effectively detect the discontinuity traces.

의류 검색용 회전 및 스케일 불변 이미지 분류 및 검색 기술 (Invariant Classification and Detection for Cloth Searching)

  • 황인성;조법근;전승우;최윤식
    • 방송공학회논문지
    • /
    • 제19권3호
    • /
    • pp.396-404
    • /
    • 2014
  • 의류 검색 분야는 의류의 비정형 특성으로 인해 매우 어려운 분야로 인식 오류 및 연산량을 줄이기 위한 노력이 많이 진행되어 왔으나 이를 위한 학습 및 인식 과정 전체에 대한 구체적인 사례가 없고 일부 관련 기술들은 아직 많은 한계를 보이고 있다. 이에 본 논문에서는 입력된 영상에서 사람 객체를 파악하여 착용한 의상으로부터 색상, 무늬, 질감 등 의상이 가질 수 있는 특성 정보를 분석하여, 이를 분류하고 검색하는 방법에 대한 전 과정을 구체적으로 보였다. 특히, 의류의 패턴 및 무늬 등을 구분하기 위한 비정형 의류 검색을 위한 LBPROT_35 디스크립터를 제안하였다. 이 제안 방식은 영상의 통계적 특징을 분석하는 기존의 LBP_ROT(Local Binary Pattern with ROTation-invariant) 방식에 추가로 원 영상에 크기 변화가 생겨도 검색해 낼 수 있도록 하는 특성이 추가된 것이며, 이를 통해 비정형 의류 검색 시 옷이 회전되어 있거나 스케일에 변화가 있어도 높은 검색율을 얻을 수 있게 되었다. 또한 색 공간을 11개의 구간으로 양자화 하는 방식을 이용하여 컬러 분류를 구현하여, 의류 검색에 있어서 중요한 컬러 유사성을 상실하지 않도록 하였다. 한편, 인터넷 상의 의류 사진들로부터 추출한 총 810장의 트레이닝 이미지로 데이터베이스를 구축하고 이들 중 36장을 질의영상으로 테스트 한 결과, 94.4%의 인식률을 보이는 등 Dense-SIFT 대비 높은 인식률을 보였다.

이동천체 후보 검출을 위한 알고리즘 개발: YSTAR-NEOPAT 탐사프로그램 (ALGORITHMS FOR MOVING OBJECT DETECTION: YSTAR-NEOPAT SURVEY PROGRAM)

  • 배영호;변용익;강용우;박선엽;오세헌;유성열;한원용;임흥서;문홍규
    • Journal of Astronomy and Space Sciences
    • /
    • 제22권4호
    • /
    • pp.393-408
    • /
    • 2005
  • YSTAR-NEOPAT 탐사프로그램에서는 관측된 영상으로부터 지구접근천체와 소행성 등의 이동천체 후보를 검출하기 위해 두 가지 자동검출 알고리즘을 개발하였다. 영상들의 측광자료를 이용하여 이동천체 후보를 검출하는 측광자료 비교방법과 영상들을 정렬시킨 후 영상간 차감 과정을 통해 이동천체 후보를 검출하는 영상차감방법이 그것이다. 두 가지 알고리즘의 이동천체 후보 자동검출효율을 시험, 비교하기 위하여, YSTAR-NEOPAT자동관측 루틴에 의해 관측된 영상들의 일부를 사용하였다. 시험 영상들의 지역좌표와 등급은 기준목록인 USNO-B1.0의 좌표와 등급에 비교되었으며, 이 과정에서 광시야망원경의 심각한 영상왜곡현상들이 1.5 초각 이상의 정밀도로 모두 보정되는 것을 검증하였다. 두 알고리즘을 시험 영상에 적용한 결과, 측광자료 비교방법을 적용한 경우 1차 후보군들이 과다 검출되었고, 이들로 인해 오검출되는 이동천체 최종후보가 다수 발생하였다. 반면, 영상차감방법을 적용한 경우에는 이동천체 후보의 오검출 비율이 측광자료비교방법을 적용했을 때보다 월등히 감소하였음을 확인하였다. 마지막으로 육안확인 과정을 거친 결과, 측광자료비교방법에 의해 검출된 이동천체 후보의 총개수는 검출문턱값에 따라 각각 60개$(2.0\sigma)$, 6개$(4.0\sigma)$이며, 육안확인에 의해 실제 이동천체로 분류된 것은 각각 27개와 6개이다. 반면, 영상차감방법에서 이동천체 후보는 모두 34개$(2.0\sigma)$와 12개$(4.0\sigma)$가 검출되었으며, 이 가운데 육안확인에 의해 실제 이동천체로 분류된 것은 각각 32개와 12개이다. 따라서 YSTAR-NEOPAT영상으로부터 이동천체 후보를 효율적으로 검출하기 위해서는 절대개수측면에서나 검출효율측면에서 측광자료비교방법보다 영상차감방법이 더 적합하다는 것을 확인할 수 있다.15\~20$배가량 높았다.과 립장이 부의 값이어서 소립의 형태를 보였으며 제2주성분은 립장, 립폭, 백립중 등이 정의 값을 나타내어 대립의 계통군들이 포함되며 경도와는 부의 상관을 보여 식미가 양호한 계통군으로 분류되었다. 6. 제1주성분과 제2주성분을 이용하여 군집분석을 한 결과 8개 자식계통군으로 구분할 수 있었으며 scatter diagram에서 제1주성분이 작아지고 제2주성분이 커지는 좌측 상단부에 분포한 VII, VIII군에 속한 계통들이 주로 식미가 높으며 조숙종보다는 중, 만숙종들이 대부분 이였다. 등과 정의 상관을 보였고 과피두께, 경도, 껌성, 씹힘성 등과는 부의 상관을 나타내었다. 이와 같은 결과를 바탕으로 품질기준을 설정해 보면 저식미 교잡종인 찰옥1호(100)를 표준으로 비교하였을 때 고식미 교잡계인 연농1호, 찰옥4호, 수원45호의 유리당 함량은 $6.2\~6.6\%(111\~l18)$, 립장 $8.8\~9.7(99\~109)$, 립폭 $9.8\~10.5mm(111\~l19)$, 백립중 $38.6\~41.9g(113\~123)$, 아밀로그램의 응집점도 $28.2\~30.6RVU(123\~133)$, 과피두께 $34\~41{\mu}m(42\~51)$, texture 분석의 경도 $460\~513(43\~48)$, 씹힘성 $125\~139(51\~57)$, 껌성 $130\~148(49\~56)$의 범위에 있었다.운 표면을 보이고, Unitek사의 경우 압흔과 함께 pitting 이 관찰되며, Ormco Stainless Steel의 경우 불규칙한 pitting이 다수 존재했다.수술 시행 시기별의 차이를 보이지 않고 고른 분포를 보였다. 10. 내원한 환자를 순구개열 종류와 Angle씨 분류법에

의상 특징 기반의 동일인 식별 (Person Identification based on Clothing Feature)

  • 최유주;박선미;조위덕;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2010
  • 비전 기반의 감시 시스템에서 동일인의 식별은 매우 중요하다. 감시 시스템에서 주로 사용되는 CCTV 카메라의 영상은 상대적으로 낮은 해상도를 가지므로 얼굴 인식 기법을 이용하여 동일인을 식별하기는 어렵다. 본 논문에서는 CCTV 카메라 영상에서 의상 특징을 이용하여 동일인을 식별하는 알고리즘을 제안한다. 건물의 주출입구에서 출입자가 인증을 받을 때, 의상 특징이 데이터베이스에 저장된다. 그 후, 건물 내에서 촬영한 영상에 대해 배경 차감 및 피부색 발견 기법을 이용하여 의상 영역을 발견한다. 의상의 특징 벡터는 텍스처와 색상 특징을 이용하여 구성한다. 텍스처 특징은 지역적 에지 히스토그램을 이용하여 추출된다. 색상 특징은 색상 지도의 옥트리 기반 양자화(octree-based quantization)를 이용하여 추출된다. 건물 내의 촬영 영상이 주어질 때, 데이터베이스에서 의상 특징이 가장 유사한 사람을 발견함으로써 동일인을 식별하며, 의상 특징 벡터 간의 유사도 측정을 위해서는 유클리디안 거리(Euclidean distance)를 사용한다. 실험 결과, 얼굴인식 기법이 최대 43%의 성공률을 보인 데 비해, 의상 특징을 이용하여 80%의 성공률로 동일인을 식별하였다.