• 제목/요약/키워드: panoramic image

검색결과 249건 처리시간 0.024초

파노라믹 영상 구축을 위한 동적 객체 추출과 궤도 표현 (The Dynamic Object Detection and Trajectory Representation for Construction of Panoramic Image)

  • 신성윤;장대현;신광성;이현창;이양원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2011년도 제44차 하계학술발표논문집 19권2호
    • /
    • pp.45-47
    • /
    • 2011
  • 파노라믹 영상에슨 정적 파노라믹 영상과 동적 파노라믹 영상이 있다. 동적 파노라믹 영상을 생성하기 위해서는 먼저 카메라의 움직임을 계산한 후에 객체의 움직임을 식별해야 한다. 본 논문에서는 동적 객체를 추출하기 위하여 우선 어파인 파라미터로 카메라의 움직임을 추출하고, 지역적 탐색으로 객체의 움직임을 탐지한다. 영상에 동적 객체가 있는 경우 동적 객체 판별을 위하여 영역 분할 방법을 이용하여 계산한다. 이러한 동적 객체의 궤도를 나타내기 위하여 먼저 동적 객체를 추출하는데, 4분할 탐색 기법을 이용하여 추출하게 된다. 최종적으로 구축되어진 배경 파노라믹 영상위에 동적 객체의 궤도를 표현한다.

  • PDF

New evolution of cone-beam computed tomography in dentistry: Combining digital technologies

  • Jain, Supreet;Choudhary, Kartik;Nagi, Ravleen;Shukla, Stuti;Kaur, Navneet;Grover, Deepak
    • Imaging Science in Dentistry
    • /
    • 제49권3호
    • /
    • pp.179-190
    • /
    • 2019
  • Panoramic radiographs and computed tomography (CT) play a paramount role in the accurate diagnosis, treatment planning, and prognostic evaluation of various complex dental pathologies. The advent of cone-beam computed tomography (CBCT) has revolutionized the practice of dentistry, and this technique is now considered the gold standard for imaging the oral and maxillofacial area due to its numerous advantages, including reductions in exposure time, radiation dose, and cost in comparison to other imaging modalities. This review highlights the broad use of CBCT in the dentomaxillofacial region, and also focuses on future software advancements that can further optimize CBCT imaging.

프레쳇 거리 손실함수를 이용한 RGBD 파노라마 영상 생성 (RGBD Panoramic Image Generation Using Frechet Distance Loss Function)

  • 김수지;박인규
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1229-1231
    • /
    • 2022
  • RGBD 영상은 다양한 3 차원 비전 연구에서 유용하게 사용되며 고품질 RGBD 영상을 취득하기 위한 많은 연구들이 수행되었다. 기존의 영상 생성 연구들은 주로 좁은 FoV(Field of View) 영상을 사용하여서 전체 장면 중 상당 부분이 소실된 영상에 대한 정보를 생성한다. 본 논문에서는 기존의 좁은 FoV 영상으로부터 360 도 전방향 RGBD 영상을 생성하는 기법을 제안한다. 오버랩 되지 않는 4 장의 소수 영상으로부터 전체 파노라마 영상에 대해서 상대적인 FoV 를 추정하고, 360 도 RGBD 영상을 동시에 생성하는 적대적 생성 신경망 기반의 영상 생성 네트워크이다. 360 도 영상의 특징을 반영하도록 설계하여서 개선된 성능을 보인다.

  • PDF

건설 시공 현장 3차원 층 단위 레이아웃 생성 모델 기초 연구 (Preliminary Study on Generating Three-Dimensional Floor Layout of Construction Sites)

  • 홍성원;김태진;박지원;이수형;김태훈
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2023년도 봄 학술논문 발표대회
    • /
    • pp.285-286
    • /
    • 2023
  • The visualization of information serves as a valuable tool for facilitating communication and exchange of opinions among stakeholders by conveying information in an intuitive and clear manner. As a preliminary study of visualization for construction field, this study proposed a model for generating three-dimensional floor layout using 360-degree panoramic cameras. The model integrates the layouts by calculating normal vectors of the plane which has openings, and applying translation and rotation matrices between the normal vectors. The results of this study can contribute to improving communication in construction sites by incorporating visualization, and further to the digital transformation of the construction industry.

  • PDF

유사 특징점을 이용한 모자이킹 영상의 구성 (Construction of 2D Image Mosaics Using Quasi-feature Point)

  • 김대현;최종수
    • 대한전자공학회논문지SP
    • /
    • 제38권4호
    • /
    • pp.381-391
    • /
    • 2001
  • 본 논문은 영상 시퀸스로부터 이미지 모자이킹의 구성을 위한 효율적인 알고리즘을 기술한다. 영상의 기하학적인 특징을 이용하거나 비선형 방정식을 풀었던 기존의 알고리즘과는 달리, 제안한 알고리즘은 4개의 유사특징점을 이용해 영상간 사영 변환식의 8개 파라미터를 직접 계산한다. 본 논문에서 정의된 유사특징점은 영상의 그레이레벨의 분산을 기반으로 하고, 두 영상의 중첩 영역에서만 결정된다. 또한 선택된 4개의 유사특징점에 대한 대응점 검출을 위해 카메라 이동 및 조명 변화에 의한 영상의 변화를 고려한 블록 정합 알고리즘을 적용한다. 제안된 알고리즘은 다양한 영상에 적용하여 그 성능을 평가하였다. 모의 실험 결과는 제안된 알고리즘이 기존의 알고리즘에 비해 계산량을 감소시키면서, 정확한 사영 변환식을 유도하여 모자이킹 영상을 구성하는 것을 보여주고 있다.

  • PDF

가상현실 영상 기술의 현황과 발전방향 연구 (Status and development direction of Virtual Reality Video technology)

  • 유묘의해;정진헌
    • 디지털융복합연구
    • /
    • 제19권12호
    • /
    • pp.405-411
    • /
    • 2021
  • 가상현실 기술은 20 세기에 개발 된 새로운 실용적인 기술이다. 최근에는 가상현실(VR) 기술의 지속적인 발전과 개선으로 관련 산업이 빠르게 발전하고 있으며, 가상현실 기술의 활용으로 실감나는 다양한 영상콘텐츠는 사용자에게 더 나은 시각적 경험을 제공하고 있다. 또한 상호 작용 및 상상력 측면에서 뛰어난 특성을 가지고 있어 영상콘텐츠 제작 분야에서 밝은 전망을 기대할 수 있다. 본 논문은 현 단계에서 VR 비디오의 디스플레이의 종류, 기술, 그리고 사용자가 VR 비디오를 보는 방법을 소개하였다. 더불어 과거 VR 장비와 현재 장비의 해상도 차이를 비교 분석하고 해상도가 VR 영상에 영향을 미치는 이유를 탐구하였다. 미래 VR 영상 발전 중에서 몇개 발전 방향을 제출하고 사람들에게 생활 편의를 제공할 것이다.

중심 구멍이 있는 구면거울과 평면거울을 이용한 가시광용 반사굴절식 전방위 광학계 (Catadioptric Omnidirectional Optical System Using a Spherical Mirror with a Central Hole and a Plane Mirror for Visible Light)

  • 서현진;조재흥
    • 한국광학회지
    • /
    • 제26권2호
    • /
    • pp.88-97
    • /
    • 2015
  • 전방위 광학계는 360도의 방위각과 지평선 위와 아래의 수직화각에 대한 상을 동시에 결상이 가능한 광학계이다. 본 논문에서는 제작을 쉽게 하면서 크기가 작아지도록 하기 위해서 가운데에 구멍이 뚫려있는 옵스큐레이션(obscuration)을 갖는 구면거울 1장과 평면거울 1장으로 이루어진 거울계 및 이 거울계에서 반사하여 구면거울의 옵스큐레이션을 통과한 시야각 범위 안의 광을 결상하는 구면렌즈 3개와 하나의 구면 이중렌즈로 구성된 결상렌즈계를 사용하는 가시광용 반사굴절식 전방위 광학계를 설계하고 제작하여 전방위 영상을 실제로 결상하였다. 그리고 자동차 앞, 뒷번호판의 영상을 보고 이 전방위 광학계의 통과 공간주파수를 측정하고, ISO 12233 차트의 영상으로부터 전방위 광학계의 수직화각을 측정하여 광학계의 성능을 평가하였다. 이 결과 전방위 광학계의 수직화각은 $+53^{\circ}{\sim}-17^{\circ}$이며, 방위각은 $360^{\circ}$이고, 3 m 거리에서 자동차 앞번호판의 숫자를 구별할 수 있었는데, 이는 135 lp/mm의 통과 공간주파수에 해당한다.

Development of an evidence-based clinical imaging diagnostic guideline for implant planning: Joint recommendations of the Korean Academy of Oral and Maxillofacial Radiology and National Evidence-based Healthcare Collaborating Agency

  • Kim, Min-Ji;Lee, Sam-Sun;Choi, Miyoung;Ha, Eun Ju;Lee, Chena;Kim, Jo-Eun;Heo, Min-Suk
    • Imaging Science in Dentistry
    • /
    • 제50권1호
    • /
    • pp.45-52
    • /
    • 2020
  • Purpose: This study was conducted to develop an evidence-based clinical imaging diagnostic guideline for implant planning, taking into account efficacy, benefits, and risks. Materials and Methods: The guideline development process employed the adaptation methodology used for Korean clinical imaging guidelines(K-CIG). Core databases(Ovid-Medline, Ovid-Embase, National Guideline Clearinghouse, Guideline International Network) and domestic databases (KoreaMed, KMbase, and KoMGI) were searched for guidelines. The retrieved articles were analyzed by 2 reviewers, and articles were selected using well-established inclusion criteria. Results: The search identified 294 articles, of which 3 were selected as relevant guidelines. Based on those 3 guidelines, 3 recommendations for implant planning were derived. Conclusion: We recommend radiography or cone-beam computed tomography (CBCT) scanning for individual patients judged to require a cross-sectional image after reading of a panoramic X-ray image and a conventional intraoral radiological image. Various steps should be taken to raise awareness of these recommendations among clinicians and the public, and K-CIG should be regularly reviewed and revised.

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.