• 제목/요약/키워드: posture recognition

검색결과 135건 처리시간 0.026초

다중 키넥트 센서 기반의 운동 자세 추정 시스템 설계 및 구현 (Design and Development of the Multiple Kinect Sensor-based Exercise Pose Estimation System)

  • 조용주;박경신
    • 한국정보통신학회논문지
    • /
    • 제21권3호
    • /
    • pp.558-567
    • /
    • 2017
  • 본 연구에서는 다수의 키넥트 센서를 이용하여 효율적인 실시간 운동 자세 추정 시스템을 설계하고 개발하였다. 이 시스템은 정면과 측면에 키넥트 센서를 사용하여, 한 개로 추적이 어려웠던 사용자의 특정 자세 (예를 들어, 무릎컬 또는 런지)를 보다 정확하게 측정하고 인식하는 것을 목적으로 한다. 그리고 추후 다양한 자세를 지원할 수 있도록 확장 가능하고 모듈화 된 방법으로 설계되었다. 이 시스템은 여러 클라이언트와 유니티 3D 서버로 구성된다. 클라이언트는 키넥트 골격 데이터를 처리하여 서버로 전송한다. 서버는 다중 키넥트를 보정하고, 각도와 거리를 기반으로 한 특징 값 추출하며 여러 대의 키넥트로부터 계산된 특징 값의 가중 평균을 사용하여 자세 인식 모델을 기반으로 자세 추정 알고리즘을 적용한다. 본 논문은 다중 키넥트 센서를 이용한 인간 운동 자세 추정 시스템의 설계 및 구현 방법을 제시하고, 체험형 유니티 3D 운동 게임에 적용한 예시를 설명한다.

Presence련와 관련된 요인 분석 (Factor analysis of Presence)

  • 조계화;성기월
    • 대한간호학회지
    • /
    • 제30권1호
    • /
    • pp.225-239
    • /
    • 2000
  • This study is a research of conceptual development to find the factors of presence. The concept and the definition of presence received from literary review. On the basis of these findings, we formulate the contents of presence through structured interview guide composed of open-ended questionnaire which included the frequency, attitude, and posture. We selected 104 samples who are the patients, doctors, nurses, and other health providers. And then the contents of presence were established after integrating the formulated contents and putting them in order. The categorizing of the presence was made after discussing with specialist in this field. By using the selected contents, we made 25 statements of presence which were categorized into three factors. The results were as follows: 1. The definition of presence is being with at the same time and space, making attention with openness, and the therapeutic interaction with empathy. 2. The contents of presence through personal interviews are The time required is 5 minutes(46.15%), 2-3 minutes(34.61%), and 10 minutes (15.38%) respectively. The frequency of visiting is 3 times(39.20%), every time(23.07%), and more than 5 times(20.19%) respectively. \circled2 In case of being with nurse is having pain(39.42%), suffering trouble or severe fear(9.61%), feeling discomfort(8.65%), taking care of wound(7.69%), and other unfavorable symptoms(6.73%) respectively. \circled3 The posture being with nurse is depends on the situations(63.46%), sitting(26.92%), and standing(9.61%) respectively. Eye contact with nurse is face to face(78.84%), depends on the situations(20.19%), and not face to face(0.96%) respectively. \circled4 The attitudes of comfort are explaining about disease(23.07%), holding on hands (14.42%), touching on the suffering parts (11.53%), and unconditionally being with(7.69%) respectively. \circled5 Nurses' caring actions are kindness (27.88%), replying to the question (12.50%), smiling(10.57%), bright appearances (8.65%), and right and quick treatment(8.65%) respectively. \circled6 The effects of being with are peaceful mind(58.65%), quick recovery(13.46%), and decrease in fear(12.50%) respectively. \circled7 The attitudes of being with are listening (11.53%), recognition(8.65%), talking about discomfort(8.65%), and answering kindly (7.69%) respectively. 3. From the analysis of presence factors, 25 statements and 3 categorized factors are presented.

  • PDF

거울 신경 체계 모델링을 위한 동적 환경에 강인한 실시간 자세추정 (Robust Real-time Pose Estimation to Dynamic Environments for Modeling Mirror Neuron System)

  • 최준호;박승민
    • 한국전자통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.583-588
    • /
    • 2024
  • BCI(뇌-컴퓨터 인터페이스) 기술의 등장으로 거울 신경을 분석하는 것이 용이해졌다. 그러나 인간의 생각에 의존하는 BCI 시스템의 정확성을 평가하는 것은 그 질적 특성으로 인해 어려움을 겪는다. BCI의 잠재력을 활용하기 위해 우리는 움직임의 궁극적인 목표에 따라 발화 속도가 영향을 받는 인간의 거울 신경의 특성을 기반으로 정확도를 측정하는 새로운 접근법을 제안한다. 본 논문에 2장에서는 거울 신경을 소개한다. 또한, 거울 신경을 위한 인간 자세 추정에 대한 설명을 제시한다. 3장에서는 인간 자세 추정 기법을 활용하여 실시간 동적 환경에 적합한 강력한 포즈 추정 방법을 소개한다. 이어서 이러한 로봇 환경을 이용한 BCI의 정확성을 분석하는 방법을 제시한다.

모션 인식을 위한 2D 자세 추정 알고리듬의 이미지 전처리 및 얼굴 가림에 대한 영향도 분석 (Investigation of image preprocessing and face covering influences on motion recognition by a 2D human pose estimation algorithm)

  • 노은솔;이사랑;홍석무
    • 한국산학기술학회논문지
    • /
    • 제21권7호
    • /
    • pp.285-291
    • /
    • 2020
  • 제조 산업에서 인력은 로봇으로 대체되지만 전문 기술은 데이터 변환이 어려워 산업용 로봇에 적용이 불가능하다. 이는 비전 기반의 모션 인식 방법으로 데이터 확보가 가능하나 이미지 데이터에 따라 판단 값이 달라질 수 있다. 따라서 본 연구는 비전 방법을 사용해 사람의 자세를 추정 시 영향을 미치는 인자를 고려해 정확성 향상 방법을 찾고자 한다. 비전 방법 중 OpenPose의 3가지 모델 MPII, COCO 및 COCO + foot을 사용했으며, CNN(Convolutional Neural Networks)을 사용한 OpenPose 구조에서 얼굴 가림 및 이미지 전처리에 미치는 영향을 확인하고자 액세서리의 유무, 이미지 크기 및 필터링을 매개 변수로 설정했다. 각 매개 변수 별 이미지 데이터를 3 가지 모델에 적용해 실제 값과 예측 값 사이 거리 오차와 PCK (Percentage of correct Keypoint)로 영향도를 판단했다. 그 결과 COCO + foot 모델은 3 가지 매개 변수에 대한 민감도가 가장 낮았다. 또한 이미지 크기는 50% (원본 3024 × 4032에서 1512 × 2016로 축소) 이상 비율이 가장 적절하며, MPII 모델만 emboss 필터링을 적용할 때 거리 오차 평균이 최대 60pixel 감소되어 향상된 결과를 얻었다.

A computer vision-based approach for behavior recognition of gestating sows fed different fiber levels during high ambient temperature

  • Kasani, Payam Hosseinzadeh;Oh, Seung Min;Choi, Yo Han;Ha, Sang Hun;Jun, Hyungmin;Park, Kyu hyun;Ko, Han Seo;Kim, Jo Eun;Choi, Jung Woo;Cho, Eun Seok;Kim, Jin Soo
    • Journal of Animal Science and Technology
    • /
    • 제63권2호
    • /
    • pp.367-379
    • /
    • 2021
  • The objectives of this study were to evaluate convolutional neural network models and computer vision techniques for the classification of swine posture with high accuracy and to use the derived result in the investigation of the effect of dietary fiber level on the behavioral characteristics of the pregnant sow under low and high ambient temperatures during the last stage of gestation. A total of 27 crossbred sows (Yorkshire × Landrace; average body weight, 192.2 ± 4.8 kg) were assigned to three treatments in a randomized complete block design during the last stage of gestation (days 90 to 114). The sows in group 1 were fed a 3% fiber diet under neutral ambient temperature; the sows in group 2 were fed a diet with 3% fiber under high ambient temperature (HT); the sows in group 3 were fed a 6% fiber diet under HT. Eight popular deep learning-based feature extraction frameworks (DenseNet121, DenseNet201, InceptionResNetV2, InceptionV3, MobileNet, VGG16, VGG19, and Xception) used for automatic swine posture classification were selected and compared using the swine posture image dataset that was constructed under real swine farm conditions. The neural network models showed excellent performance on previously unseen data (ability to generalize). The DenseNet121 feature extractor achieved the best performance with 99.83% accuracy, and both DenseNet201 and MobileNet showed an accuracy of 99.77% for the classification of the image dataset. The behavior of sows classified by the DenseNet121 feature extractor showed that the HT in our study reduced (p < 0.05) the standing behavior of sows and also has a tendency to increase (p = 0.082) lying behavior. High dietary fiber treatment tended to increase (p = 0.064) lying and decrease (p < 0.05) the standing behavior of sows, but there was no change in sitting under HT conditions.

3차원 비콘 위치측정을 이용한 마커기반 증강현실의 안정적 서비스에 관한 연구 (A Study on Stable Service of Marker based Augmented Reality Using 3D Location Measurement of Beacons)

  • 정지정;이광;김봉근
    • 한국전자통신학회논문지
    • /
    • 제12권5호
    • /
    • pp.883-890
    • /
    • 2017
  • 증강현실 서비스 중 가장 많이 사용 되는 서비스는 마커기반 증강현실 서비스이다. 그러나 마커 이미지가 가림 또는 훼손 때문에 마커 이미지를 인식될 수 없는 환경에서는 증강현실 서비스를 제공해줄 수 없다는 문제점이 있다. 본 논문에서는 마커기반 증강현실에서 마커 이미지를 인식할 수 없는 상황에서도 사용자의 자세를 추정함으로써 보다 안정적으로 서비스를 제공하는 방법을 제안한다. 제안하는 방법은 마커기반 증강현실 제공시 장애가 발생할 경우, 3개의 비콘과 사용자간의 통신을 통해 측정된 3차원 좌표 값을 이용하여 사용자의 자세를 추정하고 증강현실 서비스를 제공함으로써 사용자가 지속적으로 증강현실 서비스를 제공 받을 수 있도록 한다. 제안된 마커 인식과 비콘 통신을 활용한 마커기반 증강현실 기법의 시나리오에 대해 설명하고 제안된 방법을 가림 및 훼손 정도에 따라 실험한 결과를 제시한다.

휴먼 보행 동작 구조 분석을 위한 통계적 모델링 방법 (Statistical Modeling Methods for Analyzing Human Gait Structure)

  • 신봉기
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.12-22
    • /
    • 2012
  • 최근 비디오 감시, 로봇 시각 휴대폰 등 무수히 많은 카메라가 생활 속에 파고들면서 휴먼 동작 인식은 컴퓨터 시각 분야의 새로운 붐을 일으키고 있다. 자체로 그다지 흥미 있는 동작은 아니지만 걸음걸이 또는 보행은 가장 보편적으로 많이 관찰되는, 의심할 여지없이 사람의 대표적인 동작이다. 그리 오래되지 않은 과거에 보행자 인식의 관점에서 반짝 연구가 있었지만 관심의 길이가 짧은 만큼 보행 동작에 관한 체계적인 분석과 이해 없이 이루어졌었다. 본 연구에서는 일련의 점진적인 모델을 이용하여 보행 동작의 구조를 체계적으로 분석하고자 한다. 입력 영상 신호의 다양한 변형과 불완전성을 극복할 수 있는 동적 베이스망 기반의 보행자 모델과 보행 모델을 제시한다. 그리고 이변량 폰 미제스 분포의 조건부 밀도 함수를 기반으로 마르코프 체인의 이산 상태 공간을 연속 공간으로 확장하는 방법을 제안한다. 제안된 모형화 프레임워크를 이용한 일련의 시험, 분석에서 보행자를 91.67% 인식하며 보행 동작을 보행 방향과 보행 자세의 두 가지 독립적인 성분으로 분리 해석할 수 있었다.

  • PDF

펴지 군집화 알고리즘 기반의 웨이블릿 변환을 이용한 3차원 얼굴 인식 (3D Face Recognition using Wavelet Transform Based on Fuzzy Clustering Algorithm)

  • 이영학
    • 한국멀티미디어학회논문지
    • /
    • 제11권11호
    • /
    • pp.1501-1514
    • /
    • 2008
  • 깊이 값에 따른 얼굴의 형상은 사람의 특징을 나타내는 중요한 요소 중의 하나로서 각 사람마다 다른 모양을 가지고 있다. 다른 형상을 가진 얼굴 영상으로부터 분리한 주파수 성분은 동일 얼굴에 대한 또 다른 중요 특징 성분의 하나가 될 수 있다. 본 논문은 3차원 얼굴 영상에서 등고선 값을 따라 추출된 영역에 대하여 각 영역별로 주파수 분리를 이용하여 특징을 추출한다. 그리고 이 주파수에 대한 수정된 퍼지 군집화를 적용한 얼굴 인식 알고리즘을 제안한다. 먼저 객체와 배경을 분리하여 얼굴을 추출한 후 얼굴에서 가장 두드러진 형태인 코끝을 찾는다. 이를 이용하여 회전된 얼굴에 대해 정규화를 실시한다. 얼굴의 등고선 영역은 코끝을 기준으로 깊이 값에 따라 영역이 추출되며 이는 사람마다 서로 다른 형상 특징을 가진다. 등고선에 따라 획득된 3차원 얼굴 영상으로부터 이산 웨이블릿 변환을 이용하여 4가지의 주파수 성분을 추출하여 특징정보로 사용한다. 각각의 웨이블릿 주파수 성분을 추출한 등고선 영역에 대해 차원의 감소를 위하여 고유얼굴 추출과 특징 공간상에서 클래스간의 분리를 최대화시키기 위해 선형 판별 분석 알고리즘을 이용하여 유사도를 비교하였다. 본 논문에서는 클래스간의 분별 정보를 향상시키고자 각각의 등고선 영역과 각 영역의 주파수별로 수정된 퍼지 군집화 알고리즘을 적용하여 인식률을 향상 시켰으며, 코끝으로부터 깊이 값이 60인 영역의 경우 98.3%의 인식률을 나타내었다.

  • PDF

얼굴의 등고선 영역을 이용한 퍼지적분 기반의 3차원 얼굴 인식 (3D Face Recognition in the Multiple-Contour Line Area Using Fuzzy Integral)

  • 이영학
    • 한국멀티미디어학회논문지
    • /
    • 제11권4호
    • /
    • pp.423-433
    • /
    • 2008
  • 얼굴 표면에 대한 곡률의 특성은 사람의 특징을 나타내는 중요 요소 중의 하나이며, 깊이 간에 따른 얼굴의 형상 또한 사람마다 다른 모양을 가지고 있으므로 중요한 특징의 하나로 간주 될 수 있다. 본 논문은 3차원 얼굴 영상으로부터 추출된 표면 곡률을 얼굴의 등고선 값에 따라 추출된 영역에 대하여 퍼지적분을 이용한 얼굴 인식 알고리즘을 제안한다. 먼저 객체와 배경을 분리하여 얼굴을 추출한 후 얼굴에서 가장 두드러진 형태인 코끝을 찾고, 회전에 대한 정규화를 실시한다. 얼굴의 등고선 영역은 코끝을 기준으로 깊이 값에 따라 영역이 추출되며 사람마다 서로 다른 형상 특징을 가지게 된다. 등고선에 따라 획득된 3차원 얼굴 영상으로부터 얼굴의 표면 특성 정보인 주 곡률, 평균 곡률 그리고 가우시안 곡률 값을 추출한다. 각각의 등고선 영역에 대해 차원의 감소를 위하여 고유 얼굴 추출과 특징 공간상에서 클래스간의 분리를 최대화시키기 위해 선형판별분석 알고리즘을 이용하여 유사도를 비교하였다. 그리고 클래스간의 분별 정보를 등고선 영역들에 대해 퍼지적분 방법을 사용하여 인식률을 향상 시켰다. 제안된 방법으로 수행한 결과, 코끝으로부터 깊이 값 40 (DT 40)인 등고선 영역이 가장 높은 인식률을 나타내었으며, 퍼지적분을 사용한 방법이 다른 알고리즘보다 놀은 인식률을 나타내었으며, 곡률은 주 곡률의 최대 곡률이 98%의 높은 인식률을 나타내었다.

  • PDF

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.