• 제목/요약/키워드: 3D 시선

검색결과 73건 처리시간 0.021초

Support Vector Machines을 이용한 시선 방향 추정방법 (Gaze Direction Estimation Method Using Support Vector Machines (SVMs))

  • 유정;우경행;최원호
    • 제어로봇시스템학회논문지
    • /
    • 제15권4호
    • /
    • pp.379-384
    • /
    • 2009
  • A human gaze detection and tracing method is importantly required for HMI(Human-Machine-Interface) like a Human-Serving robot. This paper proposed a novel three-dimension (3D) human gaze estimation method by using a face recognition, an orientation estimation and SVMs (Support Vector Machines). 2,400 images with the pan orientation range of $-90^{\circ}{\sim}90^{\circ}$ and tilt range of $-40^{\circ}{\sim}70^{\circ}$ with intervals unit of $10^{\circ}$ were used. A stereo camera was used to obtain the global coordinate of the center point between eyes and Gabor filter banks of horizontal and vertical orientation with 4 scales were used to extract the facial features. The experiment result shows that the error rate of proposed method is much improved than Liddell's.

반복적 확장 칼만 필터를 이용한 얼굴의 3차원 움직임량 추정 (3-D Facial Motion Estimation Using Iterative Extended Kalman Filter)

  • 박강령;김재희
    • 정보처리학회논문지B
    • /
    • 제8B권1호
    • /
    • pp.28-34
    • /
    • 2001
  • 컴퓨터 시각 인식 방법을 이용하여 얼굴의 3차원 움직임 량을 추정하고자 하는 연구는 가상 현실 환경에서 얼굴 움직임에 의한 3차원 그래픽 화면 조정, 시뮬레이터에서의 훈련자 얼굴 움직임에 의한 화면 조정 및 모니터상의 시선 위치 파악 등을 위해 필수적으로 요구되는 기술로서 최근 활발히 연구되고 있다. 기존에 얼굴의 3차원 움직임 량을 추정하고자 하는 연구들은 대부분 확장 칼만 필터(extended kalman filter)를 이용하였으나, 이러한 방법은 필터의 초기 값을 정확하게 설정해야하는 제약 요소를 갖고 있으며, 또한 얼굴의 회전 방향 변화 시 이에 대처하지 못하는 경우 역시 종종 발생한다. 본 논문에서는 이러한 문제점을 해결하기 위하여 확장 칼만 필터의 변형 형태인 반복적 확장 칼만 필터를 이용하여 얼굴의 3차원 움직임 량을 추정하였다. 반복적 확장 칼만 필터에서는 확장 칼만 필터에서 계산되어 나오는 추정 오차 공분산 행렬 값이 미리 정해진 임계치보다 커지는 경우, 현재 얼굴의 움직임 량을 제대로 추정하지 못하고 있는 것으로 판단하여 칼만 필터에서 사용하는 회전 및 이동 속도, 그리고 회전 및 이동 각 속도를 변형함으로써 얼굴의 움직임 량을 정확하게 추정할 수 있도록 하는 방법이다. 실험 결과 반복적 확장 칼만 필터를 사용하였을 경우에 얼굴의 급격한 회전 방향 변화에도 얼굴의 3차원 움직임 량을 정확하게 추정할 수 있음을 알 수 있었다.

  • PDF

VR HMD 시뮬레이터를 활용한 조종사 시선 추적 및 착륙 절차 결과 분석 (Pilot Gaze Tracking and ILS Landing Result Analysis using VR HMD based Flight Simulators)

  • 정구문;이영재;곽태호;이재우
    • 한국항공운항학회지
    • /
    • 제30권1호
    • /
    • pp.44-49
    • /
    • 2022
  • This study performed precision instrument landing procedures for pilots with a commercial pilot license using VR HMD flight simulators, and assuming that the center of the pilot's gaze is in the front, 3-D.O.F. head tracking data and 2-D eye tracking of VR HMD worn by pilots gaze tracking was performed through. After that, AOI (Area of Interesting) was set for the instrument panel and external field of view of the cockpit to analyze how the pilot's gaze was distributed before and after the decision altitude. At the same time, the landing results were analyzed using the Localizer and G/S data as the pilot's precision instrument landing flight data. As a result, the pilot was quantitatively evaluated by reflecting the gaze tracking and the resulting landing result using a VR HMD simulator.

3차원 가상 색채 환경 상에서 사용자의 감성적 인터랙션에 관한 연구 (Experiencing the 3D Color Environment: Understanding User Interaction with a Virtual Reality Interface)

  • 오프리엔 데니엘;윤소연
    • 감성과학
    • /
    • 제13권4호
    • /
    • pp.789-796
    • /
    • 2010
  • 본 연구에서는 다양한 색채환경에 대한 반응을 파악하기 위해 3차원 가상환경 인터페이스를 개발하고, 개발된 인터페이스에 대해 사용자가 어떻게 감성적으로 인터렉션하는지를 평가하였다. 3차원 가상환경은 후면 투사형 대형화면을 통해 제시되었으며, 가구를 포함한 실내 환경요소에 12가지 색채조합을 적용한 후, 피실험자들에게 색채조합에 대한 반응과 아울러 가상환경 인터페이스를 통한 감성적 인터렉션을 함께 평가하도록 하였다. 총 34명의 대학생들이 실험에 참여하였으며, 피실험자들은 대형화면 ($8'{\times}6'$)에 제시되는 고화질의 색채 환경 속에서 표준 입력장치를 사용하여 360도로 시선을 움직일 수 있었다. '공간적 실재감(Spatial Presence)', '주제와 연관성(Topic Involvement)', 및 '유쾌함(Enjoyment)'에 관한 자기보고형 설문지를 통해 가상환경파의 인터랙션을 통한 감성 및 인지적 반응을 파악하였다. 현 연구는 향후 디자인 연구, 특히 환경디자인 연구에 3차원 가상환경 인터페이스를 적용하고자 하는 연구자들이 사용자 인터랙션을 사전에 이해하는데 기여할 것으로 기대된다.

  • PDF

망가진 시선으로부터 확장된 추상까지 (From Broken Visions to Expanded Abstractions)

  • 막스 하틀러
    • 만화애니메이션 연구
    • /
    • 통권49호
    • /
    • pp.697-712
    • /
    • 2017
  • 최근 영화적 제작에서 필름과 애니메이션은 입체시각과 3D 댑스를 관객들을 위해 만들고 있다. 소비자 입장의 VR 기술의 성숙은 동시에 미디어 제작 추세를 3D 공간, 컴퓨터 게임에서 포르노 비디오 그리고 아카데미에 노미네이트된 VR 단편 'Pearl'에 이르기까지 박차를 가한다. 이 모든 작업들이 양안시차의 정도에 반응하는 우리의 눈이 뇌의 좌우반구에 영향을 받아 입체시를 이루는 입체 퓨전과 연관이 있다. 이는 인간의 정상 시각을 모방한 것이다. 하지만 실험적 작업에서는 3D 공간 제작이 바람직한 것만은 아니다. 본인의 추상 애니메이션 작품에서, 본인은 2D의 평평함과 장소의 혼돈성을 즐겨 사용한다. 이러한 점이 본인이 추상적 시각을 추구하는 부분이다. 내 앞에 있는 것과 무엇이 뒤에 있는지를 즉각적으로 이해할 수 없어서, 감상에서 요구되는 효과를 강화한다. 2015년에 큐레이터인 제프리 쇼(Jeffrey Shaw)가 나에게 아니마 믹스 비엔날레(2015~2016)를 위한 입체시각 작품 제작을 요구했다. 이것이 나로 하여금 어떻게 3차원에서 초결정적 공간보다 입체경이 장소적 시각의 혼돈을 성취하는가라는 질문에 대한 호기심이 일도록 만들었다. 그리고 연달아서, 어떻게 추상과 실험 움직임 이미지 실행이 입체경으로부터 새로운 시각과 네러티브 기회를 여는 해택을 얻을 수 있는가, 만약 유기적인 융합을 넘어서는 방법으로 사용된다면 말이다. 주목할 만한 작업은 전통성 내의 전형적인 예, 양안시에 대한 확장된 접근이 본 논문에서 논의될 것이다. 본고에서는 본인이 아니마믹스 비엔날레를 위해 작업한 반복 입체시 애니메이션 III=III의 간략한 소개와 예술가들이 관심가질 만한 기술, 즉 입체시와 관련된 더욱 실험적이고 확장된 작업방법에 대해 논할 것이다.

멀티모달 실감 경험 I/O 인터랙션 시스템 개발 (Development for Multi-modal Realistic Experience I/O Interaction System)

  • 박재언;황민철;이정년;허환;정용무
    • 감성과학
    • /
    • 제14권4호
    • /
    • pp.627-636
    • /
    • 2011
  • 본 연구는 단순 입력 기반 유니모달 인터랙션의 한계를 극복하고 단순 입력 방식이 아닌 멀티모달 기반 사용자의 행위, 의도, 및 집중도를 활용하여 실감적이고 몰입도를 향상시키는 인터랙션 시스템을 제안하는데 그 목적이 있다. 본 연구의 선행연구에서 기존 문헌연구를 토대로 메타분석방법을 활용하여 인터랙션을 위한 3차원 동작 인식 기술의 정확도를 분석하여 최종적인 센서 기반 인터랙션 방법이 선정되었고, 직관적 제스쳐 인터랙션 요소를 추출하여 본 시스템에 반영하였다. 또한 생리반응을 이용한 집중력 판단 기술을 개발하여 사용자 의도를 판단하는 연구를 진행하였다. 본 연구에서 제안하는 시스템은 3부분으로 나눌 수 있다. 선행연구에서 선정된 인터랙션 요소들을 적용하여 가속도(Accelator) 센서와 연성(Flexible) 센서를 활용하여 손 동작을 인식하는 시스템을 구현하였고, 동공 인터랙션을 통한 안경형 시선 추적기를 구현하여 인터랙션이 가능하게 하였으며, 심혈관 반응과 피부 온열 반응을 측정하여 사용자의 의도를 반영한 시스템을 최종 구현하였다. 실감형 디지털 엔터테인먼트 플랫폼 기술 개발을 위한 기초 연구로서 활용이 가능할 것으로 판단된다.

  • PDF

운전자 시선 및 선택적 주의 집중 모델 통합 해석을 통한 운전자 보조 시스템 (Driver Assistance System for Integration Interpretation of Driver's Gaze and Selective Attention Model)

  • 김지훈;조현래;장길진;이민호
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권3호
    • /
    • pp.115-122
    • /
    • 2016
  • 본 논문은 차량의 내부 및 외부 정보를 통합하여 운전자의 인지 상태를 측정하고, 안전운전을 보조하여 주는시스템을 제안한다. 구현된 시스템은 운전자의 시선 정보와 외부 영상을 분석하여 얻은 주변정보를 mutual information기반으로 통합하여 구현되며, 차량의 앞부분과 내부 운전자를 검출하는 2개의 카메라를 이용한다. 외부 카메라에서 정보를 얻기 위해 선택적 집중모델을 기반으로 하는 게슈탈트법칙을 제안하고, 이를 기반으로 구현된 saliency map (SM) 모델은 신호등과 같은 중요한 외부 자극을 두드러지게 표현한다. 내부 카메라에서는 얼굴의 특징정보를 이용하여 운전자의 주의가 집중되는 외부 응시 정보를 파악하고 이를 통해 운전자가 응시하고 있는 영역을 검출한다. 이를 위해서 우리는 실시간으로 운전자의 얼굴특징을 검출하는 알고리즘을 사용한다. 운전자의 얼굴을 검출하기 위하여 modified census transform (MCT) 기반의 Adaboost 알고리즘을 사용하였으며, POSIT (POS with ITerations)알고리즘을 통해 3차원 공간에서 머리의 방향과 운전자 응시 정보를 측정하였다. 실험결과를 통하여 제안한 시스템이 실시간으로 운전자의 응시하고 있는 영역과, 신호등과 같은 운전에 도움이 되는 정보를 파악하는데 도움이 되었음을 확인할 수 있으며, 이러한 시스템이 운전보조 시스템에 효과적으로 적용될 것으로 판단된다.

시선의 의사소통 기능 ($\"{U}ber$ die kommunikative Funktion von Blickverhalten)

  • 김갑년
    • 한국독어학회지:독어학
    • /
    • 제3집
    • /
    • pp.57-74
    • /
    • 2001
  • Kommunikation macht 'gemeinschaftlich'. Sie erscheint v.a. als verbale, d.h. als lautliche und davon abgeleitete Sprache. Lautliche Sprache wird artikulatorisch produziert, akustisch transportiert und auditiv wahrgenommen. Was auch immer ein Mensch einem anderen mitteilen mag, wird ein geringer Teil seiner Botschaft durch Sprache kommuniziert. Neben den akustisch vermittelten Signalen $k\"{o}nnen$ auch nicht-vokale, visuell wahmehmbare Verhaltensweisen eines Interaktanden $f\"{u}r$ einen Beobachter Kommunikationswert annehmen. Der $Kommuni-kationsproze{\ss}$ wird nicht nur durch Senden und Empfangen von akustischen Signalen konstituiert, sondern auch auf der optischen Ebene der gegenseitigen Wahmehmung etabliert. Deshalb sagt man, es sei unmoglich, nicht zu kommunizieren. Denn nicht nur Worte sind das Material jeglicher Kommunikation, sondern auch alle paralinguistischen Phanomene (wie z.B. Tonfall, Schnelligkeit oder Langsarnkeit der Sprache, Pausen, Lachen und Seufzen usw.), $K\"{o}rferhaltung$ usw. In der vorligenden Arbeit bin ich darauf eingegangen, wie die Blickrichtungen einer Person von einem $Gegen\"{u}ber$ sowie einem unbeteiligten Beobachter beurteilt werden. Dabei habe ich versucht zu $erl\"{a}utern$, welche Ursache und Bedeutung das Blickverhalten in der sozialen Interaktion hat. Und mit der Frage, wie dieses Verhalten wahrzunehmen und zu interpretieren ist, habe ich mich $besch\"{a}ftigt$. Die indikative Funtion des Blickverhaltens durch Zu- oder Abwenden des Blickes wurde dabei festgestellt. 'Die Sprache der Augen', 'die Kommunikation mit Augen' scheint eine Vielzahl von Mitteilungen an den sozialen Partnern zu $erm\"{o}glichen$. Die Bedeutung der einzelnen Blicken sind interkulturell verschieden, die Blickverhalten sind teils angeboren, oder sie $m\"{u}ssen$ gelemt werden.

  • PDF

로봇 캐릭터와의 상호작용에서 사용자의 시선 배분 분석 (Analysis of User's Eye Gaze Distribution while Interacting with a Robotic Character)

  • 장세윤;조혜경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.74-79
    • /
    • 2019
  • In this paper, we develop a virtual experimental environment to investigate users' eye gaze in human-robot social interaction, and verify it's potential for further studies. The system consists of a 3D robot character capable of hosting simple interactions with a user, and a gaze processing module recording which body part of the robot character, such as eyes, mouth or arms, the user is looking at, regardless of whether the robot is stationary or moving. To verify that the results acquired on this virtual environment are aligned with those of physically existing robots, we performed robot-guided quiz sessions with 120 participants and compared the participants' gaze patterns with those in previous works. The results included the followings. First, when interacting with the robot character, the user's gaze pattern showed similar statistics as the conversations between humans. Second, an animated mouth of the robot character received longer attention compared to the stationary one. Third, nonverbal interactions such as leakage cues were also effective in the interaction with the robot character, and the correct answer ratios of the cued groups were higher. Finally, gender differences in the users' gaze were observed, especially in the frequency of the mutual gaze.

공간정보 탐색 방향과 집중정도 분석 알고리즘에 관한 연구 (Study on Analysis Algorithm of Search Direction and Concentration of Spatial Information)

  • 김종하
    • 한국실내디자인학회논문집
    • /
    • 제25권4호
    • /
    • pp.80-89
    • /
    • 2016
  • The analysis of spatial search direction and its concentration through eye movement can produce some useful data in that it enables to know the features of space elements and their effects on one another. The results by analysing the search features and concentration of spatial sections through the eye-tracking in shops in a department store makes it possible to define the followings. First, the features of 'eye's in & out' could be estimated through the division of sections by the characteristics of those shops and the extraction of central point based on the decision of continuative observation. The decision of continuative observations enabled to analyse the frequency of observation data which can be considered to be 'things watched longtime' and the stared points that is equivalent to 'things seen very often', by which the searching characteristics of spatial sections could be estimated. Second, as with the eye's [in], the right shops had 0.6 times more (3.5%) than those left and as with the eye's [out] the left ones had 0.6 times more (3.5%). It indicates that [in, out] of the right and the left shops had the same difference, which lets us know that with starting point of the middle space, [in] and [out] were paid more attention to the right shops and the left shops respectively. Third, as with the searching directions by section, the searching times [2.9 times] from [B] to [A] were than that [2.6 times] from [A] to [B]. It was also found that the left shops had more searching direction toward [C, D] than the right ones and that those searching activities at the left shops were more active. Fourth, when the searching directions by section are reviewed, the frequency of searching from [B] to [A] was 2.9 and that of the other way 2.6. Also the left shops were found to have more searching direction toward [C, D] than the right ones and those searching activities at the left shops were estimated to be more active.