• 제목/요약/키워드: 모션 제어

검색결과 348건 처리시간 0.031초

다관절 로봇 제어를 위한 교육용 소프트웨어 연구 (A Study on Education Software for Controling of Multi-Joint Robot)

  • 김재수;손현승;김우열;김영철
    • 정보교육학회논문지
    • /
    • 제12권4호
    • /
    • pp.469-476
    • /
    • 2008
  • 다관절 로봇 교육 효과의 향상을 위해서는 제어 소프트웨어를 통해 로봇의 동작을 쉽게 개발할 수 있어야 한다. 기존의 다관절 로봇 개발기법은 매우 복잡한 구현을 교육해야하지만, 우리의 도구는 로봇의 동작을 쉽게 하여 제어나 움직임에 대한 창의적인 활동을 가능하게 한다. 본 논문에서 교육용 다관절 로봇의 동작 제어를 쉽고 빠르게 프로그램화하기 위해서, 모션 생성 도구를 개발하였다. 우리는 도구를 통해 정확하고 쉽게 프로그램을 교육하고자 한다. 본 논문에서 제안한 모션 생성 도구는 기존의 복잡한 언어 제어 프로그램 방식을 탈피하였을 뿐만 아니라 사용자 편의성 중심이라는 GUI(Graphic User Interface) 방식보다도 쉽게 로봇 제어를 할 수 있었다. 또한 편리한 로봇 동작 구현은 물론 교육적으로 활용되는 마이크로프로세서 실험 장치에서도 적용이 가능하다.

  • PDF

사실적인 컴퓨터 애니메이션 구현을 위한 증분형 영상 기반 운동 렌더링 기법 (Incremental Image-Based Motion Rendering Technique for Implementation of Realistic Computer Animation)

  • 한영모
    • 정보처리학회논문지B
    • /
    • 제15B권2호
    • /
    • pp.103-112
    • /
    • 2008
  • 사실적인 컴퓨터 애니메이션 제작 시 종종 모션 캡쳐 기술이 사용된다. 모션 캡쳐 기술은 대상체의 운동을 측정해서 모델링한 운동 렌더링 결과를 그래픽스로 표현한다. 본 논문에서는 카메라를 사용해서 얻어진 2차원 영상 정보로부터 대상체의 3차원 운동을 측정하여 모델링하는 영상 기반 운동 렌더링 문제를 다룬다. 기존의 영상 기반 운동 렌더링 알고리즘은 계산량이 너무 많거나 정확도가 떨어지는 등의 단점이 있었다. 첫 번 째 단점은 장편 애니메이션 제작시 제작 시간이 너무 길어서 문제가 되고, 두 번 째 단점은 사실적인 애니메이션 구현시 사실감이 저하되는 문제를 야기 시킨다. 이와 같은 기존 방식의 단점을 보완하기 위하여 본 논문에서는 계산량이 적고 정확도가 높은 영상 기반 운동 렌더링 알고리즘을 제안한다. 본 논문에서 제안한 방식에서는 계산량이 적은 증분형 운동렌더링 알고리즘을 최적제어 이론의 시각에서 분석하여 정확도를 향상시키도록 개조한다. 본 방식을 광학식 모션 캡쳐 기술에 적용할 경우 표시자(marker)의 부착 없이도 모션 캡쳐가 가능하다는 부가적 인 장점 또한 얻을 수 있다.

4자유도 모션이 가능한 복합 무대 시스템 개발 (Development of the Multi-stage System with 4 DOF)

  • 이상원;원대희;이설희
    • 한국콘텐츠학회논문지
    • /
    • 제15권5호
    • /
    • pp.18-26
    • /
    • 2015
  • 본 논문에서는 다양한 무대연출이 가능한 전(Omni)방향 이동무대와 수직 상승 무대로 구성된 복합형 무대 시스템의 설계 및 제어 방법에 대해 제안하였다. 복합 무대 시스템은 전후/좌우/회전 등 3 자유도 모션의 이동무대와 1 자유도 상/하 모션의 상승 무대 등 총 4 자유도 동작이 가능하도록 개발 되었다. 이동무대는 2개의 구동 휠과 조향 휠 구조로 설계하여 기존 차동 방식의 이동무대에 비해 기동성을 높였으며, 상승무대는 전고대비 수식 상승비가 10배 이상 가능하도록 맞물림 방식의 구조로 설계하였다. 또한, 공연연출에 필요한 모션 구현을 위해 경로계획 방법과 계획된 경로를 추종하기 위한 제어방법에 대해서도 제안하였다. 그리고 복합형 무대 시스템의 수평 이동 및 수식 상승 등 복합 모션 실험을 통해 그 성능을 검증하였으며, 공연 공간 디자인 도록을 제시하여 개발된 시스템이 공연에서 다양한 연출에 활용이 가능함을 보였다.

손동작 인식 로봇 동작 제어 (A motion control of robot manipulator by hand glove gesture)

  • 안효민;이용규;김형종;현웅근
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.566-569
    • /
    • 2022
  • 비젼 카메라를 이용하여 작업자의 장갑 칼라 및 위치를 인식하고 이를 기반으로 로봇팔의 모션을 제어하는 시스템을 개발하였다. 시스템은 물체의 영상정보를 인식하는 카메라, 로봇팔 제어 알고리즘, 자체 로봇팔 및 제어 시스템으로 구성된다. 카메라는 작업자가 착용한 장갑의 모양과 색을 인지하여 크기 및 위치정보를 출력하게 되며, 본 연구에서는 이러한 위치 및 물체를 둘러싼 크기 정보를 이용하여 로봇 팔의 모션 속도를 제어한다. 연구 방법의 검증은 6축 로봇으로 실행하였으며, 조종자의 손동작 조종에 의한 실험을 통해 제안한 영상정보 제어 및 로봇 선단 제어 방법이 성공적으로 동작함을 확인하였다.

  • PDF

사람의 머리 모션 인식을 이용한 게임 인터페이스 구현 (Implementation of Game Interface using Human Head Motion Recognition)

  • 이사무엘;이창우
    • 한국산업정보학회논문지
    • /
    • 제19권5호
    • /
    • pp.9-14
    • /
    • 2014
  • 최근 컴퓨터 비젼이나 게임과 같은 분야에서 사람의 모션을 이용한 다양한 콘텐츠들이 개발되고 있다. 모션을 이용하여 콘텐츠를 제작하거나 응용프로그램을 개발하게 되면, 사용자는 게임이나 콘텐츠에 더욱 몰입감을 느낄 수 있고, 그에 따른 콘텐츠 사용의 만족도가 향상된다. 본 논문에서는 웹 카메라를 이용해서 캡처한 영상으로부터 모션을 인식하고, 이를 별도의 장비 없이 게임의 인터페이스로 활용할 수 있는 방법을 개발한다. 제안된 방법은 MHI(Motion History Image)와 피부색 검출 결과를 결합하여 입력영상으로부터 사람의 머리 부분을 분할하고, MHI 시퀀스(Sequence)를 이용하여 방향과 이동거리를 계산한다. 실험결과에서 제안된 사람의 머리 모션 인식 결과를 실제 게임에 적용하여 게임 캐릭터를 제어하기 위해 사용하였다. 제안된 방법은 사용자의 몰입감 정도를 향상시킬 수 있음을 증명하였고, 그로인해 기능성 게임의 사용자 인터페이스로의 가능성을 확인하였다.

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

키넥트 센서를 이용한 윈도우즈 운영체제 입력 도구 인터페이스 연구 (he Study of Input Interface Device on Windows Operating System Using Kinect Sensor)

  • 김관형;성홍기;신동석
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.199-200
    • /
    • 2011
  • 키넥트(Kinect) 센서를 이용한 연구가 활발하게 이루어지고 있다. 특히, 키넥트 센서는 2차원 칼라 영상 뿐만 아니라 2차원의 깊이(depth) 정보를 제공하므로 그 활용가치가 높다고 볼 수 있다. 현재 주목받고 있는 분야는 제어시스템 분야를 들 수 있으며, 인체 모션을 이용하여 특정 명령을 수행하거나 기계의 움직임을 제어할 수 있도록 하는 연구가 활발하게 진행되고 있다. 본 논문에서는 키넥트 센서를 이용하여 윈도우즈 운영체제의 키보드와 마우스를 하나로 통합하고 Window7 기반의 응용프로그램을 제어할 수 프로그램을 설계하여 다양한 입력 모션에 대한 패턴인식을 통하여 3차원 입력장치의 구현을 키넥트 기반으로 실현 가능한 것을 제시하고자 한다.

  • PDF

선형 동기 모터의 정밀모션 제어 (High-accuracy Motion Control of Linear Synchronous Motor)

  • 정승현;성준엽;박정일
    • 한국정밀공학회지
    • /
    • 제22권6호
    • /
    • pp.76-82
    • /
    • 2005
  • In this paper, the pole placement controller based on the Robust Internal-loop Compensator (RIC) structure, which has inherent structural equivalence to disturbance observer, is proposed to control a linear positioning system. This controller has the advantage to easily select controller gains by using pole placement without loss of that of original RIC structure. The principal is to construct the pole placement controller for a nominal internal model instead of unknown real plant. Using linear motion experiment showed the effectiveness of the proposed controller.

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.9-16
    • /
    • 2007
  • 본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.

제한된 환경 속에서 휴머노이드를 위한 인터랙티브 모션 리타겟팅 (Interactive Motion Retargeting for Humanoid in Constrained Environment)

  • 남하종;이지혜;최명걸
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.1-8
    • /
    • 2017
  • 본 논문에서는 인체 모션 데이터를 공간적 제약이 많은 환경 속에 있는 휴머노이드의 몸체에 맞추어 리타겟팅하는 기술을 소개한다. 주어진 모션 데이터는 물체를 손으로 잡거나 장애물 사이를 피해 다니는 등의 세밀한 인터랙션을 포함하고 있다고 가정한다. 또한 휴머노이드의 관절 구조는 인체 관절 구조와 다르며 주변 환경의 모양도 원본 모션이 촬영 될 당시와 서로 다르다고 가정한다. 이러한 조건 하에서 단순히 몸체의 변화만 고려한 리타겟팅 기법을 적용한다면 원본 모션 데이터에서 나타난 인터랙션의 내용을 그대로 보존하기 어렵다. 본 논문에서는 모션 데이터를 휴머노이드 몸체에 맞게 리타겟팅하는 문제와 인터랙션의 내용을 보존하는 문제를 나누어서 독립적으로 해결하는 방법을 제안한다. 먼저 환경 모델과의 인터랙션은 무시하고 모션 데이터를 휴머노이드 몸체에 맞게 리타겟팅 한다. 다음, 환경 모델의 모양을 휴머노이드 모션에 부합하도록 변형하여 원본 데이터에서 나타난 인터랙션이 재현되도록 한다. 마지막으로 휴머노이드 몸체와 환경 모델 사이의 공간적 상관 관계에 대한 제약 조건을 설정하고 환경 모델은 다시 원래 모양으로 되돌린다. 보스턴 다이나믹 사의 아틀라스 로봇 모델을 사용한 실험을 통해 제시된 방법의 유용성을 검증하였다. 향후 모션 데이터 트레킹을 통한 휴머노이드 동작 제어 문제에 사용될 수 있을 것으로 기대된다.