• Title/Summary/Keyword: 카메라 모델

Search Result 1,041, Processing Time 0.03 seconds

Multiple Depth and RGB Camera-based System to Acquire Point Cloud for MR Content Production (MR 콘텐츠 제작을 위한 다중 깊이 및 RGB 카메라 기반의 포인트 클라우드 획득 시스템)

  • Kim, Kyung-jin;Park, Byung-seo;Kim, Dong-wook;Seo, Young-Ho
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2019.05a
    • /
    • pp.445-446
    • /
    • 2019
  • Recently, attention has been focused on mixed reality (MR) technology, which provides an experience that can not be realized in reality by fusing virtual information into the real world. Mixed reality has the advantage of having excellent interaction with reality and maximizing immersion feeling. In this paper, we propose a method to acquire a point cloud for the production of mixed reality contents using multiple Depth and RGB camera system.

  • PDF

FisheyeNet: Fisheye Image Distortion Correction through Deep Learning (FisheyeNet: 딥러닝을 활용한 어안렌즈 왜곡 보정)

  • Lee, Hongjae;Won, Jaeseong;Lee, Daeun;Rhee, Seongbae;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.271-274
    • /
    • 2021
  • Fisheye 카메라로 촬영된 영상은 일반 영상보다 넓은 시야각을 갖는 장점으로 여러 분야에서 활용되고 있다. 그러나 fisheye 카메라로 촬영된 영상은 어안렌즈의 곡률로 인하여 영상의 중앙 부분은 팽창되고 외곽 부분은 축소되는 방사 왜곡이 발생하기 때문에 영상을 활용함에 있어서 어려움이 있다. 이러한 방사 왜곡을 보정하기 위하여 기존 영상처리 분야에서는 렌즈의 곡률을 수학적으로 계산하여 보정하기도 하지만 이는 각각의 렌즈마다 왜곡 파라미터를 추정해야 하기 때문에, 개별적인 GT (Ground Truth) 영상이 필요하다는 제한 사항이 있다. 이에 본 논문에서는 렌즈의 종류마다 GT 영상을 필요로 하는 기존 기술의 제한 사항을 극복하기 위하여, fisheye 영상만을 입력으로 하여 왜곡계수를 계산하는 딥러닝 네트워크를 제안하고자 한다. 또한, 단일 왜곡계수를 왜곡모델로 활용함으로써 layer 수를 크게 줄일 수 있는 경량화 네트워크를 제안한다.

  • PDF

Camera-based barcode detection for multiple lateral flow assay strips (카메라를 이용한 다중 측방 유동 검사 스트립의 바코드 판독)

  • Lee, Yong-Oh;Park, Ji-Seong;Nahm, Ki-Bong;Kim, Jong-Dae
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.443-444
    • /
    • 2020
  • 본 논문에서는 여러 개의 측방 유동 스트립을 형광분석을 통한 정량분석을 할 수 있는 장비의 각 스트립에 인쇄된 바코드를 카메라를 이용하여 인식하는 방법을 제안한다. 제안한 알고리즘에서는 각 슬롯의 스트립 유무를 판단하고, 시작 비트의 위치를 템플릿 정합법으로 검출하여 바코드 영역을 찾는다. 각 비트 영역은 바코드 설계 데이터와 기기 교정 시 계산된 공간 해상도를 이용하여 결정된다. 각 비트의 값은 비트 영역 중앙 부분의 평균을 이용하여 결정하였다. 다양한 조명 아래에서 취득한 영상들로부터 스트립 유무 판단, 시작 비트 위치 탐색 성공 여부 및 각 비트 값을 결정 등을 위한 판정 값을 가우시안 모델을 이용하여 계산하였다. 실험 결과 모든 판정 오류는 무시할 만 하였다.

  • PDF

Implementation of animation of 3D human model through pose estimation (포즈 추정을 통한 3D 휴먼 모델의 애니메이팅 구현)

  • Jang, Ye-Won;Park, Byung-Seo;Park, Jung-Tak;Lee, Sol;Seo, Young-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.190-191
    • /
    • 2022
  • 본 논문에서는 RGB-D 카메라와 Mediapipe 모듈을 이용한 신체 추적 및 리깅 프레임 워크를 제안한다. Openpose 및 Mediapipe를 통해 스켈레톤 정보를 추출할 수 있으며, 이 정보를 그래픽스 엔진의 입력으로 사용하여 휴머노이드 아바타 기능을 통해 각 캐릭터의 아바타가 다르더라도 리깅을 구현할 수 있다. 결과적으로 수작업을 통해 리깅을 구현하는 시간을 단축시킬 수 있다. 두 모듈과 RGB-D 카메라를 통해 획득한 3차원 스켈레톤 정보를 통해 실시간으로 사용자를 추적하고 자동 rigging하는 그래픽스 엔진 프레임 워크를 제안한다.

  • PDF

A Technique for detecting a person hidden behind an object in a fire situation (Guided Attention Mechanism을 활용한 화재사고 시 물체에 가려진 사람 탐지 기법)

  • Yeon-Jun Yoo;;Yong-Tae Shin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.740-742
    • /
    • 2023
  • 객체 인식 연구에 있어서 딥러닝 기반의 사람 인식에 있어서 많은 연구들이 공개되고 있다. 특히 화재사고에 있어서 연기로 인해 가시성이 떨어져 인명구조에 어려움이 발생한다. 이에 열화상 카메라와 딥러닝을 통해 사람을 인식하는 기술이 연구되고 있다. 기존 연구에서는 열화상 카메라와 YOLO 딥러닝을 통해 사람을 인식하는데 95%의 성능을 보였지만, YOLO는 그리드 셀에서 하나의 분류만하기 때문에 물체에 가려진 사람을 판별하는데 정확도가 낮았다. 본 논문에서는 이와 같은 한계를 극복하기 위해 기존 Faster R-CNN 알고리즘을 사용한다. 신체부위 Guided Attention mechanism을 사용하여 가중치를 준 Feature Map을 RPN에 적용시켜 학습모델을 구현한다면 더 높은 정확도를 얻을 수 있다. 향후 본 논문에서 제안하는 기법은 많은 실험과 다양한 데이터 셋을 통해 실질적인 검증을 할 예정이다.

Smart door locks with facial recognition (안면 인식이 적용된 스마트 도어락)

  • Da-Young Lee;Jea-Wook Jeon;Yun-Seo Ha;Hyuck-Jun Suh
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.788-789
    • /
    • 2023
  • 기존 도어락의 핀 인증 방식은 사용자에 따라 불편함을 느끼기도 한다. 이에 대한 솔루션으로 안면인식 도어락을 제안하며 Jetson nano에 face recognition 딥러닝 모델을 적용한 도어락을 제작한다. 거주자의 이미지를 촬영한 뒤 얼굴의 특징점을 분석하여 저장한다. 사용자가 도어락의 카메라에 인식되었을 때 저장된 안면 정보를 바탕으로 사용자가 거주자의 특징점과 일치하는지 확인한다. 거주자임이 인지되었을 때 도어락은 unlock되어 열리게 된다. 안면 인식 도어락 사용 시 보안상 취약해질 수 있는 기존 도어락의 핀 인증 방식에 대해 보안을 강화할 수 있으며 카메라를 통해 촬영된 사용자의 사진 및 영상을 활용하여 여러 서비스를 적용할 수 있다.

Autonomous Driving Implementation Based on Lane Detection Using YOLOPv2 (YOLOPv2 를 활용한 차선 탐지 기반 자율주행 구현)

  • Joon-Hyuk Park;Jae-In Lee;Ye-Chan Jung;Si-Woo Lee;Jae-Wook Jeon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1151-1152
    • /
    • 2023
  • 본 연구에서는 전동 차량의 자율주행 기능 구현을 위한 방법을 제시한다. 주요 구성 요소로는 카메라, PC, 아두이노, 모터드라이브, 가변저항 등이 사용되었다. 카메라를 통해 데이터를 수집한다. YOLOPv2 lane detection 딥러닝 모델을 사용하여 차선을 탐지하고, 후처리 과정을 통해 주행 경로를 정확히 인식한다. RANSAC 알고리즘을 활용하여 outlier 에 강건한 2 차 함수 회귀를 수행하고, 이를 바탕으로 주행 중 필요한 정보를 파악한다. 이러한 정보를 바탕으로 차량의 조향각을 조절하여 안전하고 효율적인 자율 주행을 구현하였다.

Block-Surveillance: Blockchain-based Surveillance Camera Video Management System Model and Design Method for City Safety (도시 안전을 위한 블록체인 기반의 감시카메라 영상 관리 시스템 모델 및 설계 방법)

  • Ji Woon Lee;Hee Suk Seo
    • Smart Media Journal
    • /
    • v.13 no.4
    • /
    • pp.65-75
    • /
    • 2024
  • This paper proposes a new approach to video surveillance systems, which have become essential components in modern urban management. By utilizing blockchain and IPFS, it enhances data integrity and privacy protection. Additionally, anomaly detection and automatic video storage are enabled through object detection technology, thus improving urban safety and security. This integrated approach serves as an efficient management methodology for surveillance systems, providing city administrators and citizens with a safer and more effective monitoring environment.

Camera Extrinsic Parameter Estimation using 2D Homography and Nonlinear Minimizing Method based on Geometric Invariance Vector (기하학적 불변벡터 기탄 2D 호모그래피와 비선형 최소화기법을 이용한 카메라 외부인수 측정)

  • Cha, Jeong-Hee
    • Journal of Internet Computing and Services
    • /
    • v.6 no.6
    • /
    • pp.187-197
    • /
    • 2005
  • In this paper, we propose a method to estimate camera motion parameter based on invariant point features, Typically, feature information of image has drawbacks, it is variable to camera viewpoint, and therefore information quantity increases after time, The LM(Levenberg-Marquardt) method using nonlinear minimum square evaluation for camera extrinsic parameter estimation also has a weak point, which has different iteration number for approaching the minimal point according to the initial values and convergence time increases if the process run into a local minimum, In order to complement these shortfalls, we, first proposed constructing feature models using invariant vector of geometry, Secondly, we proposed a two-stage calculation method to improve accuracy and convergence by using 2D homography and LM method, In the experiment, we compared and analyzed the proposed method with existing method to demonstrate the superiority of the proposed algorithms.

  • PDF

Virtual Viewpoint Image Synthesis Algorithm using Multi-view Geometry (다시점 카메라 모델의 기하학적 특성을 이용한 가상시점 영상 생성 기법)

  • Kim, Tae-June;Chang, Eun-Young;Hur, Nam-Ho;Kim, Jin-Woong;Yoo, Ji-Sang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.12C
    • /
    • pp.1154-1166
    • /
    • 2009
  • In this paper, we propose algorithms for generating high quality virtual intermediate views on the baseline or out of baseline. In this proposed algorithm, depth information as well as 3D warping technique is used to generate the virtual views. The coordinate of real 3D image is calculated from the depth information and geometrical characteristics of camera and the calculated 3D coordinate is projected to the 2D plane at arbitrary camera position and results in 2D virtual view image. Through the experiments, we could show that the generated virtual view image on the baseline by the proposed algorithm has better PSNR at least by 0.5dB and we also could cover the occluded regions more efficiently for the generated virtual view image out of baseline by the proposed algorithm.