• 제목/요약/키워드: People tracking

검색결과 237건 처리시간 0.037초

Measuring Visual Attention Processing of Virtual Environment Using Eye-Fixation Information

  • Kim, Jong Ha;Kim, Ju Yeon
    • Architectural research
    • /
    • 제22권4호
    • /
    • pp.155-162
    • /
    • 2020
  • Numerous scholars have explored the modeling, control, and optimization of energy systems in buildings, offering new insights about technology and environments that can advance industry innovation. Eye trackers deliver objective eye-gaze data about visual and attentional processes. Due to its flexibility, accuracy, and efficiency in research, eye tracking has a control scheme that makes measuring rapid eye movement in three-dimensional space possible (e.g., virtual reality, augmented reality). Because eye movement is an effective modality for digital interaction with a virtual environment, tracking how users scan a visual field and fix on various digital objects can help designers optimize building environments and materials. Although several scholars have conducted Virtual Reality studies in three-dimensional space, scholars have not agreed on a consistent way to analyze eye tracking data. We conducted eye tracking experiments using objects in three-dimensional space to find an objective way to process quantitative visual data. By applying a 12 × 12 grid framework for eye tracking analysis, we investigated how people gazed at objects in a virtual space wearing a headmounted display. The findings provide an empirical base for a standardized protocol for analyzing eye tracking data in the context of virtual environments.

People Counting System using Raspberry Pi

  • Ansari, Md Israfil;Shim, Jaechang
    • Journal of Multimedia Information System
    • /
    • 제4권4호
    • /
    • pp.239-242
    • /
    • 2017
  • This paper proposes a low-cost method for counting people based on blob detection and blob tracking. Here background subtraction is used to detected blob and then the blob is classified with its width and height to specify that the blob is a person. In this system we first define the area of entry and exit point in the video frame. The counting of people starts when midpoint of the people blob crosses the defined point. Finally, total number of people entry and exit from the place is displayed. Experiment result of this proposed system has high accuracy in real-time performance.

배경모델링과 CNN을 이용한 실시간 피플 카운팅 알고리즘 (A Real-time People Counting Algorithm Using Background Modeling and CNN)

  • 양훈준;장혁;정재협;이보원;정동석
    • 전자공학회논문지
    • /
    • 제54권3호
    • /
    • pp.70-77
    • /
    • 2017
  • 최근 IoT 및 딥러닝 관련 기술요소들이 영상보안감시시스템에서도 다양하게 응용되고 있다. 그 중 CCTV를 통해 촬영된 동영상에서 자동으로 특정 객체를 검출, 추적, 분류 하는 감시 기능이 점점 지능화되고 있다. 본 논문에서는 보급형 CPU만 사용하는 PC 환경에서도 실시간 처리가 가능한 알고리즘을 목표로 하였다. GMM(Gaussian Mixture Model)을 이용한 배경 모델링과 헝가리안 알고리즘, 그리고 칼만 필터를 조합한 추적 알고리즘은 전통적이며 복잡도가 비교적 적지만 검출 오류가 높다. 이를 보강하기 위해 대용량 데이터 학습에 적합한 딥러닝을 기술을 적용하였다. 특히 움직임이 있는 사람의 특징을 강조하기 위해 추적된 객체에 대해 SRGB-3 Layer CNN을 사용하였다. 성능 평가를 위해 기존의 HOG와 SVM을 이용한 시스템과 비교했을 때 Move-in은 7.6%, Move-out은 9.0%의 오류율 감소가 있었다.

웨어러블향(向) 시선추적 기법에 관한 연구 (A Study on Eye Tracking Techniques using Wearable Devices)

  • 장재혁;정지우;박정훈
    • 스마트미디어저널
    • /
    • 제12권3호
    • /
    • pp.19-29
    • /
    • 2023
  • 시선추적 기술은 사회 다양한 분야에서 사용되고 있으며, 추적 기술의 정확성과 편리성 면에서 좋은 성능을 발휘하고 있다. 이는 터치를 하지 않고도 인터페이스(Interface)가 가능한 새로운 가능성을 보여주고 있고 할 수 있다. 이 기술은 루게릭 환자와 같이 신체의 한 부분, 한 부분이 서서히 마비되어 최종적으로는 눈을 움직일 수밖에 없는 상황의 환자에게 새로운 의사소통 방법이 될 수 있다. 이전의 루게릭 환자는 이 상황에 처하게 되면 가족 간의 의사소통은 물론, 죽음을 기다리는 것 외의 아무것도 할 수 없는 상황에 이를 수밖에 없었으나, 어렵지만 새로운 의사소통 방법인 눈을 이용한 인터페이스가 이들에게 도움이 될 수 있다. 현재로서도 시중에서는 시선추적 시스템과 전용 장비가 존재하나, 누워있는 이들에게는 사용법이 어렵거나, 개당 1200만원 이상의 높은 가격 등으로 인해 접근하기에 어려운 실정이다. 본 논문에서는 소수의 약자에게 도움을 줄 수 있음과 동시에 이 어려운 분들을 위해 저렴하게 사용할 수 있는 웨어러블 형태의 시선추적 장치를 제안하고 사회 전반의 미래 기술 성장 가능성을 극대화 하기 위해 저렴하게 이용할 수 있는 시선추적 방법을 연구하여, 결론적으로 저사양/고성능의 웨어러블 디바이스 기반 시선추적 시스템을 설계하고 발전시키는 방법을 제안하고자 한다.

COVID-19 확산 방지를 위한 시맨틱 진단 및 추적시스템 (A Semantic Diagnosis and Tracking System to Prevent the Spread of COVID-19)

  • 순위샹;이용주
    • 한국전자통신학회논문지
    • /
    • 제15권3호
    • /
    • pp.611-616
    • /
    • 2020
  • 본 논문은 대도시에서의 COVID-19 바이러스 확산을 막기 위해, 대한민국 서울의 감염 상황에 대한 클러스터 분석을 통한 링크드 데이터 기반 시맨틱 진단 및 추적 시스템을 제안한다. 본 논문은 크게 3개의 섹션으로 구성되어 있는데, 클러스터 분석을 위해 서울의 감염자 정보를 수집하고, 중요한 감염 환자 속성을 추출하여 랜덤 포레스트를 기반으로 한 진단 모델을 구축하고, 그리고 링크드 데이터를 기반으로 한 추적 시스템을 설계하고 구현한다. 실험 결과 진단 모델의 정확도가 80% 이상으로 나타났으며, 더군다나 본 논문에서 제안한 추적 시스템은 기존 시스템들보다 더 유연하고 개방적이며 시맨틱 쿼리도 지원한다.

Microsoft-Kinect 센서를 활용한 화자추적 시스템 (Microsoft-Kinect Sensor utilizing People Tracking System)

  • 반태학;이상원;김재민;정회경
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 춘계학술대회
    • /
    • pp.611-613
    • /
    • 2015
  • 멀티미디어 강의실에서는 자동 강의 저장뿐 아니라 카메라의 추적도 자동으로 추적하여 저장되도록 발전하고 있다. 기존의 추적 시스템은 별도의 센서를 몸에 부착하여 추적하거나 전면에 센서를 시공하여 추적하는 불편함이 있었고 동시에 여러명이 전면에 나타나면 에러가 발생하여 추적이 안된다거나 하는 문제점이 있었다. 본 논문에서는 Microsoft-Kinect 센서를 이용하여 화자(강사)의 위치 및 행동을 분석하며, 이를 PTZ 카메라 및 강의 저장 수업녹화 시스템과 연동하여 강의실 수업 녹화시에 효과적인 콘텐츠 생산을 가능하도록 하는 무인화자 추적 솔루션에 대하여 기술하였다.

  • PDF

상지장애인을 위한 시선 인터페이스에서의 객체 확대 및 음성 명령 인터페이스 개발 (Object Magnification and Voice Command in Gaze Interface for the Upper Limb Disabled)

  • 박주현;조세란;임순범
    • 한국멀티미디어학회논문지
    • /
    • 제24권7호
    • /
    • pp.903-912
    • /
    • 2021
  • Eye tracking research for upper limb disabilities is showing an effect in the aspect of device control. However, the reality is that it is not enough to perform web interaction with only eye tracking technology. In the Eye-Voice interface, a previous study, in order to solve the problem that the existing gaze tracking interfaces cause a malfunction of pointer execution, a gaze tracking interface supplemented with a voice command was proposed. In addition, the reduction of the malfunction rate of the pointer was confirmed through a comparison experiment with the existing interface. In this process, the difficulty of pointing due to the small size of the execution object in the web environment was identified as another important problem of malfunction. In this study, we propose an auto-magnification interface of objects so that people with upper extremities can freely click web contents by improving the problem that it was difficult to point and execute due to the high density of execution objects and their arrangements in web pages.

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

Hand Tracking과 대화형 AI를 활용한 VR 실감형 수어 교육 콘텐츠 개발 연구 (Research on Development of VR Realistic Sign Language Education Content Using Hand Tracking and Conversational AI)

  • 천재성;문일영
    • 한국항행학회논문지
    • /
    • 제28권3호
    • /
    • pp.369-374
    • /
    • 2024
  • 본 연구는 청각장애인과 비장애인 모두를 위한 수어 교육의 접근성과 효율성을 개선하는 것을 목적으로 한다. 이를 위해 Hand Tracking 기술과 대화형 AI를 통합한 VR 실감형 수어 교육 콘텐츠를 개발하였다. 사용자는 이 콘텐츠를 통해 실시간으로 수어를 학습하며, 가상 환경에서의 직접적인 의사소통을 경험할 수 있다. 연구 결과, 이러한 통합 접근 방식이 수어 학습에 있어 몰입감을 크게 향상시키며, 학습자에게 더 깊은 이해를 제공함으로써 수어 학습의 장벽을 낮추는 데 기여한다는 것을 확인하였다. 이는 수어 교육의 새로운 패러다임을 제시하며, 기술이 교육의 접근성과 효과를 어떻게 변화시킬 수 있는지를 보여준다.

비전 점유센서를 위한 합성곱 신경망 기반 사람 인식 (CNN-based People Recognition for Vision Occupancy Sensors)

  • 이승수;최창열;김만배
    • 방송공학회논문지
    • /
    • 제23권2호
    • /
    • pp.274-282
    • /
    • 2018
  • 대부분의 건물 등에 설치된 점유센서는 PIR(pyroelectric infra-red)이 주로 활용되고 있다. 하지만 PIR은 온도 변화를 감지하는 기능 때문에 정지된 사람을 감지할 수 없는 단점이 있다. 최근 이 단점을 극복하기 위해 카메라 비전 센서의 연구가 진행되고 있다. 비전 센서는 객체 트랙킹을 통해 정지된 사람을 검출한다. 그러나 객체 트랙킹은 트랙커 표류가 발생하는 문제점이 있다. 본 논문에서는 정지 트랙커가 사람을 포함하는지의 여부를 판단하기 위하여 합성곱 신경망 기반 사람 인식 기법을 제안한다. 실험에서는 카메라로 획득한 영상에 제안 방법을 적용한 결과 약 88%의 정확도로 사람과 비사람이 분류가 되어 실제 점유센서에 활용이 가능하다는 것을 증명하였다.