• 제목/요약/키워드: 시각객체

검색결과 494건 처리시간 0.026초

Mirror Neuron System 계산 모델을 이용한 모방학습 기반 인간-로봇 인터페이스에 관한 연구 (A Study on Human-Robot Interface based on Imitative Learning using Computational Model of Mirror Neuron System)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.565-570
    • /
    • 2013
  • 영장류 대뇌 피질 영역 중 거울 뉴런들이 분포한 것으로 추정되는 몇몇 영역은 목적성 행위에 대한 시각 정보를 기반으로 모방학습을 수행함으로써 관측 행동의 의도 인식 기능을 담당한다고 알려졌다. 본 논문은 이러한 거울 뉴런 영역을 모델링 하여 인간-로봇 상호작용 시스템에 적용함으로써, 자동화 된 의도인식 시스템을 개발하고자 한다. 거울 뉴런 시스템 계산 모델은 동적 신경망을 기반으로 구축하였으며, 모델의 입력은 객체와 행위자 동작에 대한 연속된 특징 벡터 집합이고 모델의 모방학습 및 추론과정을 통해 관측자가 수행할 수 있는 움직임 정보를 출력한다. 이를 위해 제한된 실험 공간 내에서 특정 객체와 그에 대한 행위자의 목적성 행동, 즉 의도에 대한 시나리오를 전제로 키넥트 센서를 통해 모델 입력 데이터를 수집하고 가상 로봇 시뮬레이션 환경에서 대응하는 움직임 정보를 계산하여 동작을 수행하는 프레임워크를 개발하였다.

건물 내부공간의 최적경로 탐색을 위한 3차원 GIS 네트워크 모델링 (3D-GIS Network Modeling for Optimal Path Finding in Indoor Spaces)

  • 박인혜;전철민;최윤수
    • 대한공간정보학회지
    • /
    • 제15권3호
    • /
    • pp.27-32
    • /
    • 2007
  • 도시의3차원적인 성장 및 건물의 대형화, 복잡화에 따라 3차원 정보에 대한 요구가 증가하고 있다. 이와 더불어 위치기반안내, 경로탐색 또는 비상탈출 등과 같은 유비쿼터스 컴퓨팅의 기초데이터로써 3차원 GIS의 활용에 대한 관심 또한 증가하고 있다. 반면에 대부분의3차원 모델링 기술은 건물이나 지형의 시각적인 표현에 초점을 맞추고 있으며 공간분석에서 요구되는 위상구조는 갖고 있지 않다. 본 연구에서는3차원 모델에 위상구조를 적용하는 방법으로 2차원 GIS와 3차원 모델의 연동을 제시하고자 한다. 3차원 모델의 공간별로 분리된 객체를 상응하는 2차원 GIS 레이어의 피쳐와 데이터베이스의 레코드를 통해 연계하고 이로써 3차원 객체간의 관계를 정의하였다. 또한 2차원과 3차원이 연동된 건물모델의 복도네트워크를 구축하였다. 마지막으로 연동된 3D모델을 이용하여 건물내부에서 최적 경로분석을 몇 가지 시나리오를 통해 실시하였다.

  • PDF

다른 화각을 가진 라이다와 칼라 영상 정보의 정합 및 깊이맵 생성 (Depthmap Generation with Registration of LIDAR and Color Images with Different Field-of-View)

  • 최재훈;이덕우
    • 한국산학기술학회논문지
    • /
    • 제21권6호
    • /
    • pp.28-34
    • /
    • 2020
  • 본 논문에서는 라이다(LIDAR) 센서와 일반 카메라 (RGB 센서)가 획득한 영상들을 정합하고, 일반 카메라가 획득한 컬러 영상에 해당하는 깊이맵을 생성하는 방법을 제시한다. 본 연구에서는 Slamtec사의 RPLIDAR A3 와 일반 디지털 카메라를 활용하고, 두 종류의 센서가 획득 및 제공하는 정보의 특징 및 형태는 서로 다르다. 라이다 센서가 제공하는 정보는 라이다부터 객체 또는 주변 물체들까지의 거리이고, 디지털 카메라가 제공하는 정보는 2차원 영상의 Red, Green, Blue 값이다. 두 개의 서로 다른 종류의 센서를 활용하여 정보를 정합할 경우 객체 검출 및 추적에서 더 좋은 성능을 보일 수 있는 가능성이 있고, 자율주행 자동차, 로봇 등 시각정보처리 기술이 필요한 영역에서 활용도가 높은 것으로 기대한다. 두 종류의 센서가 제공하는 정보들을 정합하기 위해서는 각 센서가 획득한 정보를 가공하고, 정합에 적합하도록 처리하는 과정이 필요하다. 본 논문에서는 두 센서가 획득하는 정보들을 정합한 결과를 제공할 수 있는 전처리 방법을 실험 결과와 함께 제시한다.

BIM기반 비용.일정 통합관리 방안에 관한 연구 (BIM based Integration Method of Cost and Schedule Information)

  • 백영인
    • 한국지반공학회:학술대회논문집
    • /
    • 한국지반공학회 2009년도 세계 도시지반공학 심포지엄
    • /
    • pp.695-699
    • /
    • 2009
  • 공정과 공사비는 건설 프로젝트의 관리에 있어서 매우 중요한 두 가지 요소로써, 그동안 이들을 통합 관리하려는 노력이 많이 이루어져 왔으나 국내의 국가계약법에 따른 내역체계의 한계점과 내역 및 WBS 표준화 작업의 미흡으로 인해 실제 시행에 많은 어려움을 겪고 있다. 본 연구에서는 최신관리기법인 BIM의 객체기반 3D 모델링 정보를 이용하여 비용과 일정정보를 연계하여 관리하는 방안을 제시하였다. 먼저 프로젝트 구성정보를 비용, 일정, 구조물의 부위별 구성요소로 나누고 각 구성정보에 의한 분류체계의 특징을 분석하였고, 국내의 내역중심 관리체계와 전체적인 관리 시스템 상의 한계를 감안하여 제약조건을 설정하고 작업분류체계(WBS)를 통한 일정정보를 중심으로 비용과 3D 모델링의 부위별 객체들을 연계하는 방안을 제시하였다. 제시된 방안의 검증을 위하여 대림산업에서 시공중인 청풍대교 현장에 대하여 사례연구를 실시하였으며, 이를 통하여 일정변화에 따른 시각화 및 비용예측 등의 기대효과를 확인하고 한계점 및 향후 추가 연구사항들을 가늠해볼 수 있었다.

  • PDF

중앙 영역의 컬러 특징과 최적화된 빈 수를 이용한 내용기 반 영상검색 (Contend Base Image Retrieval using Color Feature of Central Region and Optimized Comparing Bin)

  • 류은주;송영준;박원배;안재형
    • 정보처리학회논문지B
    • /
    • 제11B권5호
    • /
    • pp.581-586
    • /
    • 2004
  • 본 논문은 중앙 영역에서의 컬러 특징 추출 기법과 추출된 컬러 특징들의 비교 빈(bin)를 최적화한 새로운 내용기반 영상 검색 방법을 제안한다. 인간의 시각적 특징이 중심 객체의 유무에 영향을 받고, 대부분의 영상의 중심 객체는 중앙에 존재한다는 가정 하에 영상의 중앙 영역에서 컬러 특징을 추출한다. 따라서, 배경이 단순한 경우 영상의 전체영역을 특징으로 하여 검색했을 때 배경의 영향에 좌우되는 단점을 극복할 수 있다. 또한 영상의 컬러 특징값은 HSV 컬러 공간으로 변환한 후 16레벨로 양자화를 하여 추출한다. 실험값을 통해 기존의 16개 빈을 모두 비교하여 검색한 경우에 비해 상위 8개 빈만을 가지고 검색한 경우 주관적인 평가와 객관적인 평가 모두 다 좋은 결과를 보인다. 영상 전체를 특징으로 추출한 경우보다 중앙 영역만으로 특징을 추출한 경우 평균 precision이 약 5%정도 좋았다.

병렬 이벤트 기반 원격 IT 융합 개발 (Development of Parallel Event-Driven Remote IT Convergence)

  • 김정숙;김성완;김홍섭
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권12호
    • /
    • pp.1-9
    • /
    • 2010
  • 본 논문에서는 첨단 통신 기술을 포함한 IT 기술을 전통산업과 융합한 병렬 이벤트 기반 원격 IT 융합 사례들을 개발하였다. IT 융합 사례들은 다수의 장치와 사용자가 동시에 시스템에서 제공되는 서비스를 이용하거나 이벤트를 발생시킨다. 따라서 다양한 장치들로부터 동시에 발생되는 이벤트를 처리하기 위해 병렬 처리 기법이 필요하다. 이에 본 논문에서는 스레드를 생성하여 병렬 처리가 가능하도록 개발하였으며, 또한 장치와 원격 정보 송수신을 위해 무선 통신 및 전력선 통신과의 연결을 할 수 있는 기술을 개발하였다. 그리고 장치 및 장치와 사용자 포털에서 발생하는 이벤트들을 논리적으로 모델링하기 위해 XML을 이용하여 객체 지향 모델링 기법으로 모델링하였다. 특히 결과들을 효과적으로 보여주기 위해 다양한 시각적인 사용자 인터페이스, 즉 그래프, 테이블 및 그래프와 테이블을 혼합한 방식을 이용하여 실시간으로 볼 수 있도록 개발하였다.

UML과 LVOOP를 이용한 프로그래밍 교육의 적용 방안 (The Application to the Programming Education Using UML and LabVIEW OOP)

  • 정덕길;정민포;조혁규
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.375-378
    • /
    • 2011
  • 컴퓨터 언어를 배우는 학습자는 다양한 분야에 적합한 프로그래밍 언어를 배우고 텍스트 기반으로 된 프로그래밍을 하는 것이 매우 어렵다고 생각한다. 이러한 문제를 쉽게 풀기 위한 한 방법이 프로그램을 비주얼로 표현하는 것이다. 기존의 시각 프로그래밍인 Visual C++, Visual Basic, Delphi와 같은 비주얼 언어는 외부 인터페이스는 비주얼 컴포넌트로 표현되고 컴포넌트의 작동에 대해서는 텍스트 기반으로 표현한다. 이러한 프로그램을 배우는 학습자들은 컴포넌트 작동에 대한 텍스트 프로그래밍에 대해 어려워하고 있으며 프로그래밍을 싫어하는 한 요소가 되었다. 논문에서는 이러한 문제를 해결하기 위해 논리적 사고를 표현하면서 객체지향을 지원하기 위해 UML을 도입하고 텍스트 프로그래밍 요소를 비주얼 프로그래밍 요소로 대체하기 위해 객체지향을 지원하는 LabVIEW OOP를 사용하여 학습자들에게 프로그래밍 교육을 하는 방법을 제시하였다. 또한, 제시된 프로그래밍 교육 방법에 대해 설문조사를 실시하여 교육적인 효과를 분석하였다.

  • PDF

투명 e-퍼포먼스를 위한 텍스쳐 중화 시스템 개발 (Development of Texture Neutralization System for the Invisible e-Performance)

  • 이동훈;윤태수
    • 한국멀티미디어학회논문지
    • /
    • 제14권4호
    • /
    • pp.585-594
    • /
    • 2011
  • 연극이나 뮤지컬과 같은 라이브 퍼포먼스 분야에서는 관객의 몰입도를 극대화하기 위한 다양한 무대 효과가 사용된다. 이러한 무대 효과는 전통적인 연출 기법으로부터 장면에 몰입을 줄 수 있는 다양한 무대 효과를 위한 장치들을 활용하고 있다. 본 논문에서는 공간증강현실 기반의 사물의 표면 텍스쳐를 제어할 수 있는 새로운 디지털 시각 효과를 제안한다. 이를 위하여 프로젝터-카메라 시스템을 사용하여 임의의 물체의 표면을 중화할 수 있는 방법을 제시한다. 객체의 표면에 신중하게 결정된 보상 영상(Compensation Image)을 투영함으로써 투명한 객체처럼 나타나도록 만들기 위해, 본 논문에서는 간단하고 효과적인 오프라인 프로젝터-카메라 보정을 위한 호모그래피 방법(Homography Method)를 사용한다. 따라서 제안하는 Radiometric 매개 변수를 측정하기 위한 스마트 프로젝터(Smart Projector)의 기본 알고리즘은 연극이나 뮤지컬에서의 시간적 변화에 유용하게 사용될 것이다.

파라미터 튜닝을 통한 Relation Networks 성능개선 (Improving the performance for Relation Networks using parameters tuning)

  • 이현옥;임희석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 춘계학술발표대회
    • /
    • pp.377-380
    • /
    • 2018
  • 인간의 추론 능력이란 문제에 주어진 조건을 보고 문제 해결에 필요한 것이 무엇인지를 논리적으로 생각해 보는 것으로 문제 상황 속에서 일정한 규칙이나 성질을 발견하고 이를 수학적인 방법으로 법칙을 찾아내거나 해결하는 능력을 말한다. 이러한 인간인지 능력과 유사한 인공지능 시스템을 개발하는데 있어서 핵심적 도전은 비구조적 데이터(unstructured data)로부터 그 개체들(object)과 그들간의 관계(relation)에 대해 추론하는 능력을 부여하는 것이라고 할 수 있다. 지금까지 딥러닝(deep learning) 방법은 구조화 되지 않은 데이터로부터 문제를 해결하는 엄청난 진보를 가져왔지만, 명시적으로 개체간의 관계를 고려하지 않고 이를 수행해왔다. 최근 발표된 구조화되지 않은 데이터로부터 복잡한 관계 추론을 수행하는 심층신경망(deep neural networks)은 관계추론(relational reasoning)의 시도를 이해하는데 기대할 만한 접근법을 보여주고 있다. 그 첫 번째는 관계추론을 위한 간단한 신경망 모듈(A simple neural network module for relational reasoning) 인 RN(Relation Networks)이고, 두 번째는 시각적 관찰을 기반으로 실제대상의 미래 상태를 예측하는 범용 목적의 VIN(Visual Interaction Networks)이다. 관계 추론을 수행하는 이들 심층신경망(deep neural networks)은 세상을 객체(objects)와 그들의 관계(their relations)라는 체계로 분해하고, 신경망(neural networks)이 피상적으로는 매우 달라 보이지만 근본적으로는 공통관계를 갖는 장면들에 대하여 객체와 관계라는 새로운 결합(combinations)을 일반화할 수 있는 강력한 추론 능력(powerful ability to reason)을 보유할 수 있다는 것을 보여주고 있다. 본 논문에서는 관계 추론을 수행하는 심층신경망(deep neural networks) 중에서 Sort-of-CLEVR 데이터 셋(dataset)을 사용하여 RN(Relation Networks)의 성능을 재현 및 관찰해 보았으며, 더 나아가 파라미터(parameters) 튜닝을 통하여 RN(Relation Networks) 모델의 성능 개선방법을 제시하여 보았다.

웨어러블 AR 기기를 이용한 객체인식 기반의 건설 현장 정보 시각화 구현 (Augmented Reality Framework to Visualize Information about Construction Resources Based on Object Detection)

  • ;;이용주;박만우;송은석
    • 한국BIM학회 논문집
    • /
    • 제11권3호
    • /
    • pp.45-54
    • /
    • 2021
  • The augmented reality (AR) has recently became an attractive technology in construction industry, which can play a critical role in realizing smart construction concepts. The AR has a great potential to help construction workers access digitalized information about design and construction more flexibly and efficiently. Though several AR applications have been introduced for on-site made to enhance on-site and off-site tasks, few are utilized in actual construction fields. This paper proposes a new AR framework that provides on-site managers with an opportunity to easily access the information about construction resources such as workers and equipment. The framework records videos with the camera installed on a wearable AR device and streams the video in a server equipped with high-performance processors, which runs an object detection algorithm on the streamed video in real time. The detection results are sent back to the AR device so that menu buttons are visualized on the detected objects in the user's view. A user is allowed to access the information about a worker or equipment appeared in one's view, by touching the menu button visualized on the resource. This paper details implementing parts of the framework, which requires the data transmission between the AR device and the server. It also discusses thoroughly about accompanied issues and the feasibility of the proposed framework.