• 제목/요약/키워드: Image pyramid

검색결과 195건 처리시간 0.021초

Joint Reasoning of Real-time Visual Risk Zone Identification and Numeric Checking for Construction Safety Management

  • Ali, Ahmed Khairadeen;Khan, Numan;Lee, Do Yeop;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.313-322
    • /
    • 2020
  • The recognition of the risk hazards is a vital step to effectively prevent accidents on a construction site. The advanced development in computer vision systems and the availability of the large visual database related to construction site made it possible to take quick action in the event of human error and disaster situations that may occur during management supervision. Therefore, it is necessary to analyze the risk factors that need to be managed at the construction site and review appropriate and effective technical methods for each risk factor. This research focuses on analyzing Occupational Safety and Health Agency (OSHA) related to risk zone identification rules that can be adopted by the image recognition technology and classify their risk factors depending on the effective technical method. Therefore, this research developed a pattern-oriented classification of OSHA rules that can employ a large scale of safety hazard recognition. This research uses joint reasoning of risk zone Identification and numeric input by utilizing a stereo camera integrated with an image detection algorithm such as (YOLOv3) and Pyramid Stereo Matching Network (PSMNet). The research result identifies risk zones and raises alarm if a target object enters this zone. It also determines numerical information of a target, which recognizes the length, spacing, and angle of the target. Applying image detection joint logic algorithms might leverage the speed and accuracy of hazard detection due to merging more than one factor to prevent accidents in the job site.

  • PDF

Visual Model of Pattern Design Based on Deep Convolutional Neural Network

  • Jingjing Ye;Jun Wang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권2호
    • /
    • pp.311-326
    • /
    • 2024
  • The rapid development of neural network technology promotes the neural network model driven by big data to overcome the texture effect of complex objects. Due to the limitations in complex scenes, it is necessary to establish custom template matching and apply it to the research of many fields of computational vision technology. The dependence on high-quality small label sample database data is not very strong, and the machine learning system of deep feature connection to complete the task of texture effect inference and speculation is relatively poor. The style transfer algorithm based on neural network collects and preserves the data of patterns, extracts and modernizes their features. Through the algorithm model, it is easier to present the texture color of patterns and display them digitally. In this paper, according to the texture effect reasoning of custom template matching, the 3D visualization of the target is transformed into a 3D model. The high similarity between the scene to be inferred and the user-defined template is calculated by the user-defined template of the multi-dimensional external feature label. The convolutional neural network is adopted to optimize the external area of the object to improve the sampling quality and computational performance of the sample pyramid structure. The results indicate that the proposed algorithm can accurately capture the significant target, achieve more ablation noise, and improve the visualization results. The proposed deep convolutional neural network optimization algorithm has good rapidity, data accuracy and robustness. The proposed algorithm can adapt to the calculation of more task scenes, display the redundant vision-related information of image conversion, enhance the powerful computing power, and further improve the computational efficiency and accuracy of convolutional networks, which has a high research significance for the study of image information conversion.

신경망 기반의 텍스처 분류기를 이용한 스크래치 검출 (Film Line Scratch Detection using a Neural Network based Texture Classifier)

  • 김경태;김은이
    • 전자공학회논문지CI
    • /
    • 제43권6호
    • /
    • pp.26-33
    • /
    • 2006
  • 영화복원은 오래된 필름으로부터 손상된 영역을 자동으로 검출하여 복원하는 것이다. 영화복원은 고화질의 멀티미디어 서비스를 위한 필수작업이기 때문에, 현재 많은 연구자들로부터 관심을 받고 있다. 필름은 flick, dust, 스크래치 등의 원인으로 손상이 이루어지는데, 이 중 가장 주된 요인은 스크래치이다. 스크래치로 손상된 데이터의 복원연구는 지난 몇 년간 활발히 수행되고 있다. 스크래치 복원을 위해서는 위치 및 길이 등의 기준에 따라 나타나는 다양한 종류의 스크래치들을 모두 검출할 수 있어야만 한다. 본 논문에서는 영화의 각 프레임 상에 나타나는 다양한 종류의 모든 스크래치를 자동으로 검출할 수 있는 신경망 기반의 검출 방법을 제안한다. 다양한 높이와 폭을 가진 스크래치들을 검출하기 위해 pyramid를 이용하여 입력 영상은 다양한 해상도의 영상으로 변환된다. 각 변환된 영상에 대하여 신경망기반의 텍스처 분류기를 이용하여 스크래치와 비스크래치의 영역으로 분류한다. 이때, 처리속도의 향상을 위해 에지로 분류된 화소에 대하여만 신경망을 적용한다. 제안된 방법의 평가를 위해 다양한 종류의 스크래치를 가진 영화 및 애니메이션 데이터에 대해 실험이 이루어졌고, 그 결과, 제안된 방법의 강건함과 효율성이 입증되었다.

계층적 리샘플링 및 자기교차방지 운동성을 이용한 변형 모델 (Deformable Model using Hierarchical Resampling and Non-self-intersecting Motion)

  • 박주영
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권11호
    • /
    • pp.589-600
    • /
    • 2002
  • 변형 모델은 볼륨영상으로부터 관심 대상 객체의 3차원적 경계면 구조 추출을 위해 효과적인 접근 방법을 제공한다. 그러나, 기존 변형 모델은 초기 조건에 민감하고, 심한 함몰 및 돌출 부위를 가지는 복잡한 경계면을 잘 표현하지 못하면, 모델 내 구성 요소들 간에 자기교차를 일으킬 수 있는 세가지 주요 제한점이 있다. 본 논문에서는 기존 변형 모델이 갖는 이러한 제한점을 개선함으로써 복잡한 기하학적 표면 형태를 가지는 객체의 경계면 추출에 효과적인 변형 모델을 제안한다. 첫째, 제안 변형 모델은 다해상도 볼륨영상 피라미드를 기반으로 모델구성 요소들을 계층적으로 리샘플링한다. 이 접근은 객체의 경계면을 멀티스케일 방식으로 추출함으로써 초기화에의 의존성을 극복할 뿐 아니라, 모델 구성 요소들의 크기를 복셀 크기에 따라 항상 균일하게 유지함으로써 모델이 영상의 복잡한 특성 정보에 따라 유동적으로 변형될 수 있게 한다. 둘째, 제안 변형 모델은 기존 모델에서 가지는 내력과 외력 외에 자기교차방지력을 포함한다. 자기교차방지력은 제한 거리 이내로 근접한 비인접 모델구성 요소들간에 척력을 적용함으로써 자기교차를 사전에 방지한 수 있게 한다. 본 논문에서는 다양한 합성 볼륨영상 및 뇌 MR 볼륨영상에 대한 실험을 통해서 제안 모델이 초기화 위치에 의존하지 않고 자기교차 없이 복잡한 함몰 및 돌출 경계면 구조를 성공적으로 추출한 결과를 보인다.

딥러닝 기반의 Multi Scale Attention을 적용한 개선된 Pyramid Scene Parsing Network (Modified Pyramid Scene Parsing Network with Deep Learning based Multi Scale Attention)

  • 김준혁;이상훈;한현호
    • 한국융합학회논문지
    • /
    • 제12권11호
    • /
    • pp.45-51
    • /
    • 2021
  • 딥러닝의 발전으로 인하여 의미론적 분할 방법은 다양한 분야에서 연구되고 있다. 의료 영상 분석과 같이 정확성을 요구하는 분야에서 분할 정확도가 떨어지는 문제가 있다. 본 논문은 의미론적 분할 시 특징 손실을 최소화하기 위해 딥러닝 기반 분할 방법인 PSPNet을 개선하였다. 기존 딥러닝 기반의 분할 방법은 특징 추출 및 압축 과정에서 해상도가 낮아져 객체에 대한 특징 손실이 발생한다. 이러한 손실로 윤곽선이나 객체 내부 정보에 손실이 발생하여 객체 분류 시 정확도가 낮아지는 문제가 있다. 이러한 문제를 해결하기 위해 의미론적 분할 모델인 PSPNet을 개선하였다. 기존 PSPNet에 제안하는 multi scale attention을 추가하여 객체의 특징 손실을 방지하였다. 기존 PPM 모듈에 attention 방법을 적용하여 특징 정제 과정을 수행하였다. 불필요한 특징 정보를 억제함으로써 윤곽선 및 질감 정보가 개선되었다. 제안하는 방법은 Cityscapes 데이터 셋으로 학습하였으며, 정량적 평가를 위해 분할 지표인 MIoU를 사용하였다. 실험을 통해 기존 PSPNet 대비 분할 정확도가 약 1.5% 향상되었다.

DTM GENERATION OF RADARSAT AND SPOT SATELLITE IMAGERY USING GROUND CONTROL POINTS EXTRACTED FROM SAR IMAGE

  • PARK DOO-YOUL;KIM JIN-KWANG;LEE HO-NAM;WON JOONG-SUN
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.667-670
    • /
    • 2005
  • Ground control points(GCPs) can be extracted from SAR data given precise orbit for DTM generation using optic images and other SAR data. In this study, we extract GCPs from ERS SAR data and SRTM DEM. Although it is very difficult to identify GCPs in ERS SAR image, the geometry of optic image and other SAR data are able to be corrected and more precise DTM can be constructed from stereo optic images. Twenty GCPs were obtained from the ERS SAR data with precise Delft orbit information. After the correction was applied, the mean values of planimetric distance errors of the GCPs were 3.7m, 12.1 and -0.8m with standard deviations of 19.9m, 18.1, and 7.8m in geocentric X, Y, and Z coordinates, respectively. The geometries of SPOT stereo pair were corrected by 13 GCPs, and r.m.s. errors were 405m, 705m and 8.6m in northing, easting and height direction, respectively. And the geometries of RADARS AT stereo pair were corrected by 12 GCPs, and r.m.s. errors were 804m, 7.9m and 6.9m in northing, easting and height direction, respectively. DTMs, through a method of area based matching with pyramid images, were generated by SPOT stereo images and RADARS AT stereo images. Comparison between points of the obtained DTMs and points estimated from a national 1 :5,000 digital map was performed. For DTM by SPOT stereo images, the mean values of distance errors in northing, easting and height direction were respectively -7.6m, 9.6m and -3.1m with standard deviations of 9.1m, 12.0m and 9.1m. For DTM by RADARSAT stereo images, the mean values of distance errors in northing, easting and height direction were respectively -7.6m, 9.6m and -3.1m with standard deviations of 9.1m, 12.0m and 9.1m. These results met the accuracy of DTED level 2

  • PDF

후보영역의 밝기 분산과 얼굴특징의 삼각형 배치구조를 결합한 얼굴의 자동 검출 (Automatic Face Extraction with Unification of Brightness Distribution in Candidate Region and Triangle Structure among Facial Features)

  • 이칠우;최정주
    • 한국멀티미디어학회논문지
    • /
    • 제3권1호
    • /
    • pp.23-33
    • /
    • 2000
  • 본 논문에서는 복잡한 배경으로부터 자연스런 상태로 촬영된 얼굴들을 검출하는 알고리듬에 대해 기술한다. 이 방법은 얼굴영역이 적당한 크기의 블록내에서는 비교적 비슷한 밝기는 지닌다는 점에 착안하였다. 이 사실을 근거로, 먼저 영상을 계층적으로 블록화하고, 블록들의 밝기가 서로 비슷한 영역을 신속히 얼굴후보로 선택하여, 후보영역내에서 구체적인 얼굴특징을 찾는 단계적 처리방법을 도입하였다. 후보영역내의 구체적인 특징추출을 위해서 어둡고 좁은 영역을 강조하는 국소 휘도치 변환법을 사용하였으며 최종 판단을 위해서는 얼굴의 각 기관이 갖는 삼각형의 배치구조를 제약으로 사용하였다. 매우 간단한 방법으로 얼굴영역을 처리하였기 때문에 특징점들을 추출할 때 생기는 파라메터 설정문제를 피할수 있고 그 결과 파라메터값에 크게 의존하지 않는 안정된 시스템 구현이 가능하다.

  • PDF

영상 스티칭 관점에서 SIFT 특징점 추출시간 감소를 위한 파라미터 분석 (Parameter Analysis for Time Reduction in Extracting SIFT Keypoints in the Aspect of Image Stitching)

  • 문원준;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제23권4호
    • /
    • pp.559-573
    • /
    • 2018
  • 최근 가상현실(VR, Virtual Reality) 등 가장 많은 분야에서 가장 활발히 응용되고 있는 영상매체 중 하나가 전방위 영상 또는 파노라마 영상이다. 이 영상은 다양한 방법으로 획득된 영상들을 스티칭하여 생성하는데, 그 과정에서 스티칭에 필요한 특징점들을 추출하는데 가장 많은 시간이 소요된다. 이에 본 논문은 현재 가장 널리 사용되고 있는 SIFT 특징점을 추출하는 연산시간을 감소하는 것에 목적을 두고 SIFT 특징점들을 추출에 관여하는 파라미터들을 분석한다. 본 논문에서 고려하는 파라미터는 가우시안 필터링에 사용되는 가우시안 커널의 초기 표준편차, 국소극점을 추출하기 위한 가우시안 차영상군의 수, 그리고 옥타브 수의 세 가지이다. SIFT 알고리즘으로는 이 알고리즘을 제안한 Lowe 방식과 컨볼루션 캐스캐이드(convolution cascade) 방식인 Hess 방식을 고려한다. 먼저 각 파라미터 값이 연산시간에 미치는 영향을 분석하고, 실제 스티칭 실험을 수행하여 각 파라미터가 스티칭 성능에 미치는 영향을 분석한다. 마지막으로 두 분석결과를 토대로 성능저하 없이 연산시간을 최소로 하는 파라미터 값들을 추출한다.

Haas 촬영법에서 선예한 영상 획득을 위한 연구 (A Study to Acquire Sharp Images in the Haas(Skull PA Axial Projection))

  • 안준호;한재복;송종남;김인수
    • 한국방사선학회논문지
    • /
    • 제16권3호
    • /
    • pp.319-325
    • /
    • 2022
  • 본 연구는 머리뼈 후전축방향 촬영(Haas)에서 선예한 영상을 얻어 진단하고자 Skull -Phantom을 이용하여 자세 각도를 변경하여 영상을 획득한 후 대학병원 영상의학과에 근무한 방사선사 5명에게 주관적 영상평가한 결과 머리를 엎드린자세에서 머리 뒤쪽의 뒤통수점에서 4 cm 아래로 내리고 머리쪽을 향하여 25° 입사하여 촬영시에 뒤통수뼈와 큰구멍내에 투영된 안장등, 뒤침대돌기등 영상평가 점수가 20점으로 높았으며, 뒤통수점에서 아래로 8 cm 내려서 머리쪽으로 30° 입사 시 바위모뿔대칭의 음영, 바위능선과 시상봉합, 시웃자봉합 등 19점으로 높은 영상평가를 받았다. 또한, 점수 유의성을 검증하였으며, Cronbach Alpha 값이 0.789 신뢰도가 좋음을 평가 받았다. 영상의 관심영역(ROI)을 설정하여 신호대잡음비(SNR)를 산출한 결과 머리 뒤쪽 뒤통수점에서 4 cm 아래로 내리고 머리쪽으로 25° 입사 시 5.957로 가장 높으며, 뒤통수점에서 아래로 8 cm 내려서 입사 시는 머리쪽으로 30° 기울여 촬영하였을 때 6.430으로 가장 높았다. 연구결과에 의하면 머리 후전축방향 촬영시 뒤통수뼈와 안장, 뒤침대돌기의 선예한 영상을 얻기 위해서는 뒤통수점에서 아래로 4 cm 에서 머리쪽으로 25° 입사하여 촬영하고 바위모뿔대칭의 음영과 바위능선과 시상봉합, 시웃자봉합의 선예한 영상을 얻기 위해서는 뒤통수점에서 아래로 8 cm 내려서 머리쪽으로 30° 기울여 촬영한다면 임상에서 활용에 도움이 있으리라 사료된다.

정렬오차 추정 필터에 기반한 비전 정렬 시스템의 고속 정밀제어 (Fast and Fine Control of a Visual Alignment Systems Based on the Misalignment Estimation Filter)

  • 정해민;황재웅;권상주
    • 제어로봇시스템학회논문지
    • /
    • 제16권12호
    • /
    • pp.1233-1240
    • /
    • 2010
  • In the flat panel display and semiconductor industries, the visual alignment system is considered as a core technology which determines the productivity of a manufacturing line. It consists of the vision system to extract the centroids of alignment marks and the stage control system to compensate the alignment error. In this paper, we develop a Kalman filter algorithm to estimate the alignment mark postures and propose a coarse-fine alignment control method which utilizes both original fine images and reduced coarse ones in the visual feedback. The error compensation trajectory for the distributed joint servos of the alignment stage is generated in terms of the inverse kinematic solution for the misalignment in task space. In constructing the estimation algorithm, the equation of motion for the alignment marks is given by using the forward kinematics of alignment stage. Secondly, the measurements for the alignment mark centroids are obtained from the reduced images by applying the geometric template matching. As a result, the proposed Kalman filter based coarse-fine alignment control method enables a considerable reduction of alignment time.