• Title/Summary/Keyword: 캡쳐 프레임

Search Result 54, Processing Time 0.026 seconds

Hierarchical Visualization of the Space of Facial Expressions (얼굴 표정공간의 계층적 가시화)

  • Kim Sung-Ho;Jung Moon-Ryul
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.31 no.12
    • /
    • pp.726-734
    • /
    • 2004
  • This paper presents a facial animation method that enables the user to select a sequence of facial frames from the facial expression space, whose level of details the user can select hierarchically Our system creates the facial expression space from about 2400 captured facial frames. To represent the state of each expression, we use the distance matrix that represents the distance between pairs of feature points on the face. The shortest trajectories are found by dynamic programming. The space of facial expressions is multidimensional. To navigate this space, we visualize the space of expressions in 2D space by using the multidimensional scaling(MDS). But because there are too many facial expressions to select from, the user faces difficulty in navigating the space. So, we visualize the space hierarchically. To partition the space into a hierarchy of subspaces, we use fuzzy clustering. In the beginning, the system creates about 10 clusters from the space of 2400 facial expressions. Every tine the level increases, the system doubles the number of clusters. The cluster centers are displayed on 2D screen and are used as candidate key frames for key frame animation. The user selects new key frames along the navigation path of the previous level. At the maximum level, the user completes key frame specification. We let animators use the system to create example animations, and evaluate the system based on the results.

Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data (모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어)

  • Kim, Sung-Ho;Jung, Moon-Ryul
    • The KIPS Transactions:PartA
    • /
    • v.11A no.4
    • /
    • pp.277-284
    • /
    • 2004
  • This paper presents a facial expression control method of 3D avatar that enables the user to select a sequence of facial frames from the facial expression space, whose level of details the user can select hierarchically. Our system creates the facial expression spare from about 2,400 captured facial frames. But because there are too many facial expressions to select from, the user faces difficulty in navigating the space. So, we visualize the space hierarchically. To partition the space into a hierarchy of subspaces, we use fuzzy clustering. In the beginning, the system creates about 11 clusters from the space of 2,400 facial expressions. The cluster centers are displayed on 2D screen and are used as candidate key frames for key frame animation. When the user zooms in (zoom is discrete), it means that the user wants to see mort details. So, the system creates more clusters for the new level of zoom-in. Every time the level of zoom-in increases, the system doubles the number of clusters. The user selects new key frames along the navigation path of the previous level. At the maximum zoom-in, the user completes facial expression control specification. At the maximum, the user can go back to previous level by zooming out, and update the navigation path. We let users use the system to control facial expression of 3D avatar, and evaluate the system based on the results.

Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding (LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.2
    • /
    • pp.117-124
    • /
    • 2007
  • This paper describes methodology that enables animators to create the facial expression animations and to control the facial expressions in real-time by reusing motion capture datas. In order to achieve this, we fix a facial expression state expression method to express facial states based on facial motion data. In addition, by distributing facial expressions into intuitive space using LLE algorithm, it is possible to create the animations or to control the expressions in real-time from facial expression space using user interface. In this paper, approximately 2400 facial expression frames are used to generate facial expression space. In addition, by navigating facial expression space projected on the 2-dimensional plane, it is possible to create the animations or to control the expressions of 3-dimensional avatars in real-time by selecting a series of expressions from facial expression space. In order to distribute approximately 2400 facial expression data into intuitional space, there is need to represents the state of each expressions from facial expression frames. In order to achieve this, the distance matrix that presents the distances between pairs of feature points on the faces, is used. In order to distribute this datas, LLE algorithm is used for visualization in 2-dimensional plane. Animators are told to control facial expressions or to create animations when using the user interface of this system. This paper evaluates the results of the experiment.

A Lip Movement Image Tracing Test Environment Build-up for the Speech/Image Interworking Performance Enhancement (음성/영상 연동성능 향상을 위한 입술움직임 영상 추적 테스트 환경 구축)

  • Lee, Soo-Jong;Park, Jun;Kim, Eung-Kyeu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.328-329
    • /
    • 2007
  • 본 논문은 로봇과 같이 외부 음향잡음에 노출되어 있는 상황 하에서, 대면하고 있는 사람이 입술을 움직여 발성하는 경우에만 음성인식 기능이 수행되도록 하기 위한 방안의 일환으로, 입술움직임 영상을 보다 정확히 추적하기 위한 테스트 환경 구현에 관한 것이다. 음성구간 검출과정에서 입술움직임 영상 추적결과의 활용여부는 입술움직임을 얼마나 정확하게 추적할 수 있느냐에 달려있다. 이를 위해 영상 프레임율 동적 제어, 칼라/이진영상 변환, 순간 캡쳐, 녹화 및 재생기능을 구현함으로써, 다각적인 방향에서 입술움직임 영상 추적기능을 확인해 볼 수 있도록 하였다. 음성/영상기능을 연동시킨 결과 약 99.3%의 연동성공율을 보였다.

  • PDF

Real-time Motion Generation of Virtual Character using the Stereo Images (스테레오 영상을 이용한 가상 캐릭터의 실시간 동작 생성)

  • Lee, Ran-Hee;Kim, Sung-En;Park, Chang-Jun;Lee, In-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.31-34
    • /
    • 2002
  • 본 논문에서는 2 대의 카메라로부터 입력된 스테레오 영상을 이용하여 가상캐릭터의 동작을 실시간으로 생성하는 방법에 대해 기술한다. 이 시스템은 동작자의 움직임을 캡쳐하기 위해 동작자의 좌, 우 전방에 동기화된 2 대의 컬러 CCD 카메라를 위치시킨다. 카메라로부터 입력된 스테레오 영상을 분석하여 신체의 중심이 되는 루트와 머리, 손, 발과 같은 end-effector의 2차원 특징점을 추출하고, 추출된 특징점들은 카메라의 사영행렬과 추적 알고리즘을 통해 3차원 위치를 생성한다. 생성된 루트와 end-effector 의 3 차원 위치정보는 노이즈 제거를 위한 필터링을 거친 후 역운동학 알고리듬에 적용하고, 인체 관절의 해부학적인 제약조건과 관절간의 상호 연관성 및 전 후 프레임간의 부드러운 연결 동작 생성을 고려하여 중간관절의 위치를 정밀하게 계산한다. 중간관절의 위치를 생성하므로 서 임의 동작자의 움직임에 대한 모든 관절의 정보를 획득할 수 있으며, 획득된 동작 데이터를 가상 캐릭터에 적용하므로 서 캐릭터의 움직임을 실시간으로 생성할 수 있다.

  • PDF

감마나이프 방사선치료에서 소프트웨어와 하드웨어 시간설정차이에 의한 처방선량에 주는 영향

  • 서원섭;임영진;신동오
    • Proceedings of the Korean Society of Medical Physics Conference
    • /
    • 2003.09a
    • /
    • pp.60-60
    • /
    • 2003
  • 목적 : 감마나이프 치료계획용 소프트웨어인 감마플렌에서 처방선량을 계산하는 단위와 실제 시간을 설정하는 하드웨어인 조정판의 시간설정 단위의 차이에 의한 실제 처방선량에 끼치는 영향을 계산하였다. 대상 및 방법 : 감마나이프는 주어진 4 개의 헬멧을 가지고 최소 한번 또는 최대 20 번 이상의 방사선 조합으로 한번에 많은 방사선을 목표물에 조사한다. 감마나이프 방사선 수술을 위한 치료계획용 소프트웨어인 감마플렌 5.32에서는 처방선량에 대한 치료시간을 최대 지점 또는 지정하는 지점에 규격화하여 소숫점 두 자리 즉 0.6 초까지 계산한다. 그러나 실제 치료를 위한 조정판의 시간설정은 모델 B 에서는 소숫점 한자리까지 가능하게 되어있다. 그러므로 모델 B를 사용하는 기관의 치료계획 컴퓨터인 감마플렌에서는 소숫점 한자리로 만들기 위해 반올림과 내림을 하게 되며 이것을 프린트하여 사용하게 된다. 실제 임상에서 멀티삿에 대한 반올림과 내림에 대한 효과를 선량으로 환산하여 처방선량에 끼치는 영향을 연구하였다. 치료 계획에 서 처방선량을 입력한 후 계산된 각 조사에 대한 소숫점 두자리 시간을 화면에 표시한 후 스냅tit으로 스크린 캡쳐하여 프린트하였으며, 소숫점 한자리로 된 최종 치료계획을 프린트하여 서로 비교 계산하였다. 결과 : 20 여명의 환자에 대한 치료 결과에 대한 분석은 조사의 수나 처방선량에 관계하지 않고 우연히 올림이 많으냐 내림이 많으냐에 의존하였다. 최대지점에 대하여 분석한 결과는 -0.48부터 +0.47로 -2%부터 +1.9%의 정도로 영향을 끼쳤다. 결론 : 반올림과 내림의 결과는 처방선량을 줄일 수도 있고 늘일 수도 있었다. 그러나 이 연구는 최대선량 지점에 대해 비교를 하였으나 실제로는 각 조사의 위치가 서로 다르므로 영향은 이보다 훨씬 적을 것으로 생각되어 소숫점 한자리로 치료하여도 무방할 것으로 보인다.mm, AP 방향에서는 2.1$\pm$0.82 mm이었다. 그리고 복부의 later의 방향에서는 7.0$\pm$2.1 mm, AP 방향에서는 6.5$\pm$2.2 mm 이었다. 또한 표적 위치측정을 위해서 환자의 피부에 임의의 가상표적을 부착하고 CT 촬영한 영상결과, 프레임으로 가상표 적에 대한 위치를 정확히 파악할 수 있었다. 결론 : 제작된 프레임을 적용하여 방사선투과율 측정실험, 환자 외부자세에 대한 오차 측정실험, 가상표적 위치측정 실험 등을 수행하였다. 환자 외부자세에 대한 오차 측정실험 경우, 더 많은 Volunteer를 적용하여 보다 정확한 오차 측정실험이 수행되어야 할 것이며 정확한 표적 위치 측정실험을 위해서 내부 마커를 삽입한 환자를 적용한 임상실험이 수행되어야 할 것이다. 또한 위치결정에서 획득한 좌표값의 정확성을 알아보기 위해서 팬톰을 이용한 방사선조사 실험이 추후에 실행되어져야 할 것이다. 그리고 제작된 프레임에 Rotating X선 시스템과 내부 장기의 움직임을 계량화하고 PTV에서의 최적 여유폭을 설정함으로써 정위 방사선수술 및 3 차원 업체 방사선치료에 대한 병소 위치측정과 환자의 자세에 대한 setup 오차측정 결정에 도움이 될 수 있을 것이라고 사료된다. 상대적으로 우수한 것으로 나타났으며, 혼합충전재는 암모니아의 경우 코코넛과 펄라이트의 비율이 7:3인 혼합 재료 3번과 소나무수피와 펄라이트의 비율이 7:3인 혼합 재료 6번에서 다른 혼합 재료에 비하여 우수한 것으로 나타났다. 4. 코코넛과 소나무수피의 경우 암모니아 가스에 대한 흡착 능력은 거의 비슷한 것으로 사료되며, 코코넛의 경우 전량을 수입에 의존하고 있다는 점에서 국내 조달이 용이하며, 구입 비용도 적게 소요되는 소나무수피를 사용하는 것이 경제적이라고 사료된다. 5. 마지막으로

  • PDF

Implementation of a Transition Rule Model for Automation of Tracking Exercise Progression (운동 과정 추적의 자동화를 위한 전이 규칙 모델의 구현)

  • Chung, Daniel;Ko, Ilju
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.11 no.5
    • /
    • pp.157-166
    • /
    • 2022
  • Exercise is necessary for a healthy life, but it is recommended that it be conducted in a non-face-to-face environment in the context of an epidemic such as COVID-19. However, in the existing non-face-to-face exercise content, it is possible to recognize exercise movements, but the process of interpreting and providing feedback information is not automated. Therefore, in this paper, to solve this problem, we propose a method of creating a formalized rule to track the contents of exercise and the motions that constitute it. To make such a rule, first make a rule for the overall exercise content, and then create a tracking rule for the motions that make up the exercise. A motion tracking rule can be created by dividing the motion into steps and defining a key frame pose that divides the steps, and creating a transition rule between states and states represented by the key frame poses. The rules created in this way are premised on the use of posture and motion recognition technology using motion capture equipment, and are used for logical development for automation of application of these technologies. By using the rules proposed in this paper, not only recognizing the motions appearing in the exercise process, but also automating the interpretation of the entire motion process, making it possible to produce more advanced contents such as an artificial intelligence training system. Accordingly, the quality of feedback on the exercise process can be improved.

Bipeds Animation Blending By 3D Studio MAX Script (맥스 스크립트를 이용한 바이페드 애니메이션 합성)

  • Choi, Hong-Seok;Jeong, Jae-Wook
    • Science of Emotion and Sensibility
    • /
    • v.12 no.3
    • /
    • pp.259-266
    • /
    • 2009
  • Today, the 3D character animation is easily accessible from most of the film such as an actuality film, animation, games, or advertising. However, such a smooth movement of characters is a result obtained by Key Frame operation which skilled animators worked with data obtained through expensive equipment such Motion Capture for a long time. Therefore, to modify or to give other effects is not easy. In some cases, character's action made according to the personal feeling could be different with universal expectations of audiences, because it might be not appropriate to make regulations generalized between character's action by animater's design and emotional reaction of audience. In this research, it is aimed to show the way which is easily to blend and modify 2-3 Biped animation data by offering the operation tools of 3-D rotation using 3D Studio MAX Script. By this tool E.A.M., we can have various researches for quantities relation of between walking and emotional reaction.

  • PDF

Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data (모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어)

  • Kim Sung-Ho
    • Journal of Korea Multimedia Society
    • /
    • v.7 no.10
    • /
    • pp.1478-1484
    • /
    • 2004
  • This paper presents a method that controls facial expression in realtime of 3D avatar by having the user select a sequence of facial expressions in the space of facial expressions. The space of expression is created from about 2400 frames of facial expressions. To represent the state of each expression, we use the distance matrix that represents the distances between pairs of feature points on the face. The set of distance matrices is used as the space of expressions. Facial expression of 3D avatar is controled in real time as the user navigates the space. To help this process, we visualized the space of expressions in 2D space by using the Principal Component Analysis(PCA) projection. To see how effective this system is, we had users control facial expressions of 3D avatar by using the system. This paper evaluates the results.

  • PDF

An Algorithm for Traffic Information by Vehicle Tracking from CCTV Camera Images on the Highway (고속도로 CCTV카메라 영상에서 차량 추적에 의한 교통정보 수집 알고리즘)

  • Min Joon-Young
    • Journal of Digital Contents Society
    • /
    • v.3 no.1
    • /
    • pp.1-9
    • /
    • 2002
  • This paper is proposed to algorithm for measuring traffic information automatically, for example, volume count, speed and occupancy rate, from CCTV camera images installed on highway, add to function of image detectors which can be collected the traffic information. Recently the method of traffic informations are counted in lane one by one, but this manner is occurred critical errors by occlusion frequently in case of passing larger vehicles(bus, truck etc.) and is impossible to measure in the 8 lanes of highway. In this paper, installed the detection area include with all lanes, traffic informations are collected using tracking algorithm with passing vehicles individually in this detection area, thus possible to detect all of 8 lanes. The experiment have been conducted two different real road scenes for 20 minutes. For the experiments, the images are provided with CCTV camera which was installed at Kiheung Interchange upstream of Kyongbu highway, and video recording images at Chungkye Tunnel. For image processing, images captured by frame-grabber board 30 frames per second, $640{\times}480$ pixels resolution and 256 gray-levels to reduce the total amount of data to be interpreted.

  • PDF