• 제목/요약/키워드: gestures

검색결과 479건 처리시간 0.032초

제스처 제안 시스템의 설계 및 구현에 관한 연구 (A Study on Design and Implementation of Gesture Proposal System)

  • 문성현;윤태현;황인성;김석규;박준;한상영
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1311-1322
    • /
    • 2011
  • 제스처는 빠르고 간편하게 명령을 수행 할 수 있어서 스마트폰과 태블릿PC, 웹브라우저를 비롯한 수많은 어플리케이션에서 사용되고 있다. 어플리케이션에 제스처를 적용하기 위해서는 제스처를 디자인해야하는데 사용자와 시스템 두 가지 측면을 모두 고려하여 디자인해야 한다. 이러한 제스처 디자인을 도와주고자 몇몇 툴들이 개발되어왔다. 그럼에도 불구하고 제스처를 디자인하기 위해서는 다음과 같은 어려움이 남아있다. 첫째, 모든 제스처를 사람이 직접 디자인해야 한다. 둘째, 디자인한 제스처를 인식기가 올바르게 인식할 수 있도록 반복적인 트레이닝 작업을 해야 한다. 본 논문에서는 보다 간편한 제스처 디자인 환경을 제공해 주고자 자동화 트레이닝, 제스처 제안, 제스처 생성을 제안하였다. 이를 통해 제스처를 트레이닝 시킬 필요가 없어졌고 생성된 제스처와 수집된 제스처의 마할라노비스 거리를 계산하여 이 중 인식이 잘 될 가능성이 높은 순서대로 제스처들을 제안해 줌으로서 모든 제스처를 직접 디자인해야 하는 노력을 줄일 수 있게 되었다.

초등 수학 수업 상황에서 나타나는 언어적 은유와 제스처 분석 (An Analysis on the Lingual Metaphors and Gestures Shown in the Math Class at Elementary School)

  • 이종희;최성이
    • 한국초등수학교육학회지
    • /
    • 제16권1호
    • /
    • pp.145-166
    • /
    • 2012
  • 본 연구의 목적은 초등 수학 수업에서 사용되는 언어적 은유와 제스처 사용에 대한 사례를 분석하여 수학학습 지도 방안으로서의 은유 및 제스처의 가치를 재고해 보고자 하는데 그 목적이 있다. 본 연구에서는 2007 개정 교육과정 초등학교 6학년 1학기 7단원 정비례와 반비례 중 4차시 반비례 알아보기 단원을 주제로 한 수업에서 교사에게서 나타난 언어적 은유와 제스처를 분석하였다. 분석 결과 본 연구에서 관찰된 수학적 은유에는 기계은유와 가상적 이동은유가 있으며 제스처는 형상적 제스처, 은유적 제스처, 지시적 제스처의 형태로 관찰되었다. 이러한 은유들은 수학 수업 전반에 걸쳐 고르게 분포하여 다양한 형태로 표현되었으며 분석 결과를 토대로 수학 수업에 있어서 은유 활용의 교육적 의의를 재고해 보았다.

  • PDF

스마트폰 UI에서 터치 제스처의 방향성과 이너 스크롤의 인지 (Direction of Touch Gestures and Perception of Inner Scroll in Smartphone UI)

  • 이영주
    • 디지털융복합연구
    • /
    • 제19권2호
    • /
    • pp.409-414
    • /
    • 2021
  • 본 논문은 대중화되고 사용이 익숙해진 스마트폰이 환경에서 디바이스 특성상 작고 긴 UI의 스크롤의 방향이 가지는 터치 제스처에 대해 알아보았다. 터치 제스처는 과거의 경험을 바탕으로 메타포나 어포던스와 같은 트리거에 의해 터치되고 방향을 가지게 된다. 탐색, 동작 그리고 변형 제스처의 유형에 따라 유형별 다른 터치 제스처를 사용하지만 그 중에서도 스크롤은 가장 빈번하게 사용된다. 스크롤은 수직 방향의 상하로 스크롤 하는 것이 일반적이지만 최근에는 내부에 좌우로 스크롤링 가능한 디자인 패턴을 배치하여 사용자의 인지부조화를 발생시킨다. 우측 콘텐츠 일부를 가려 좌우로 스크롤이 가능한 이너 스크롤의 활용에 있어 스크롤이 불가능한 디자인 패턴의 혼용은 사용자에게 주의를 요하는 요인이 된다. 따라서 트리거의 사용과 일관성 있는 디자인 패턴의 활용은 이너 스크롤 환경에서도 사용자 경험을 높여 줄 수 있음을 알 수 있었다.

Volume Control using Gesture Recognition System

  • Shreyansh Gupta;Samyak Barnwal
    • International Journal of Computer Science & Network Security
    • /
    • 제24권6호
    • /
    • pp.161-170
    • /
    • 2024
  • With the technological advances, the humans have made so much progress in the ease of living and now incorporating the use of sight, motion, sound, speech etc. for various application and software controls. In this paper, we have explored the project in which gestures plays a very significant role in the project. The topic of gesture control which has been researched a lot and is just getting evolved every day. We see the usage of computer vision in this project. The main objective that we achieved in this project is controlling the computer settings with hand gestures using computer vision. In this project we are creating a module which acts a volume controlling program in which we use hand gestures to control the computer system volume. We have included the use of OpenCV. This module is used in the implementation of hand gestures in computer controls. The module in execution uses the web camera of the computer to record the images or videos and then processes them to find the needed information and then based on the input, performs the action on the volume settings if that computer. The program has the functionality of increasing and decreasing the volume of the computer. The setup needed for the program execution is a web camera to record the input images and videos which will be given by the user. The program will perform gesture recognition with the help of OpenCV and python and its libraries and them it will recognize or identify the specified human gestures and use them to perform or carry out the changes in the device setting. The objective is to adjust the volume of a computer device without the need for physical interaction using a mouse or keyboard. OpenCV, a widely utilized tool for image processing and computer vision applications in this domain, enjoys extensive popularity. The OpenCV community consists of over 47,000 individuals, and as of a survey conducted in 2020, the estimated number of downloads exceeds 18 million.

Road Traffic Control Gesture Recognition using Depth Images

  • Le, Quoc Khanh;Pham, Chinh Huu;Le, Thanh Ha
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제1권1호
    • /
    • pp.1-7
    • /
    • 2012
  • This paper presents a system used to automatically recognize the road traffic control gestures of police officers. In this approach,the control gestures of traffic police officers are captured in the form of depth images.A human skeleton is then constructed using a kinematic model. The feature vector describing a traffic control gesture is built from the relative angles found amongst the joints of the constructed human skeleton. We utilize Support Vector Machines (SVMs) to perform the gesture recognition. Experiments show that our proposed method is robust and efficient and is suitable for real-time application. We also present a testbed system based on the SVMs trained data for real-time traffic gesture recognition.

  • PDF

핸드 제스처를 인식하는 손동작 추적 (Hand Movement Tracking and Recognizing Hand Gestures)

  • 박광채;배철수
    • 한국산학기술학회논문지
    • /
    • 제14권8호
    • /
    • pp.3971-3975
    • /
    • 2013
  • 본 논문은 핸드 제스쳐에 의해 증강현실 내의 가상 객체 제어기술로, HOG기반의 핸드 제스쳐 인식을 제안하고 있다. 인식을 위한 특징점들은 HOG불럭들에 의하여 결정되며, 크기가 다른 여러 불럭들을 시험하여 가장 적절한 불럭구성을 결정하며, AdaBoostSVM기법을 사용하여 분류 목적에 가장 적절한 불럭들을 추출한다. 실험 결과 핸드 제스쳐 인식률은 94% 이었다.

핸드제스처를 이용한 원격미팅 자료 인터페이스 (Hand Gesture based Manipulation of Meeting Data in Teleconference)

  • 송제훈;최기호;김종원;이용구
    • 한국CDE학회논문집
    • /
    • 제12권2호
    • /
    • pp.126-136
    • /
    • 2007
  • Teleconferences have been used in business sectors to reduce traveling costs. Traditionally, specialized telephones that enabled multiparty conversations were used. With the introduction of high speed networks, we now have high definition videos that add more realism in the presence of counterparts who could be thousands of miles away. This paper presents a new technology that adds even more realism by telecommunicating with hand gestures. This technology is part of a teleconference system named SMS (Smart Meeting Space). In SMS, a person can use hand gestures to manipulate meeting data that could be in the form of text, audio, video or 3D shapes. Fer detecting hand gestures, a machine learning algorithm called SVM (Support Vector Machine) has been used. For the prototype system, a 3D interaction environment has been implemented with $OpenGL^{TM}$, where a 3D human skull model can be grasped and moved in 6-DOF during a remote conversation between distant persons.

연속구어 내 발성 종결-개시의 음향학적 특징 - 말더듬 화자와 비말더듬 화자 비교 - (Acoustic Features of Phonatory Offset-Onset in the Connected Speech between a Female Stutterer and Non-Stutterers)

  • 한지연;이옥분
    • 음성과학
    • /
    • 제13권2호
    • /
    • pp.19-33
    • /
    • 2006
  • The purpose of this paper was to examine acoustical characteristics of phonatory offset-onset mechanism in the connected speech of female adults with stuttering and normal nonfluency. The phonatory offset-onset mechanism refers to the laryngeal articulatory gestures. Those gestures are required to mark word boundaries in phonetic contexts of the connected speech. This mechanism included 7 patterns based on the speech spectrogram. This study showed the acoustic features in the connected speech in the production of female adults with stuttering (n=1) and normal nonfluency (n=3). Speech tokens in V_V, V_H, and V_S contexts were selected for the analysis. Speech samples were recorded by Sound Forge, and the spectrographic analysis was conducted using Praat. Results revealed a stuttering (with a type of block) female exhibited more laryngealization gestures in the V_V context. Laryngealization gesture was more characterized by a complete glottal stop or glottal fry both in V_H and in V_S contexts. The results were discussed from theoretical and clinical perspectives.

  • PDF

손 동작을 통한 인간과 컴퓨터간의 상호 작용 (Recognition of Hand gesture to Human-Computer Interaction)

  • 이래경;김성신
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2930-2932
    • /
    • 2000
  • In this paper. a robust gesture recognition system is designed and implemented to explore the communication methods between human and computer. Hand gestures in the proposed approach are used to communicate with a computer for actions of a high degree of freedom. The user does not need to wear any cumbersome devices like cyber-gloves. No assumption is made on whether the user is wearing any ornaments and whether the user is using the left or right hand gestures. Image segmentation based upon the skin-color and a shape analysis based upon the invariant moments are combined. The features are extracted and used for input vectors to a radial basis function networks(RBFN). Our "Puppy" robot is employed as a testbed. Preliminary results on a set of gestures show recognition rates of about 87% on the a real-time implementation.

  • PDF

7~24개월 영아의 의사소통적 몸짓과 어휘 습득간의 관계 (The Relationship Between the Communicative Gesture and the Vocabulary Acquisition of Infants)

  • 김의향;김명순
    • 아동학회지
    • /
    • 제27권6호
    • /
    • pp.217-234
    • /
    • 2006
  • This study examined variability of gestures and their correlation with vocabulary acquisition in the communication of infants. Subjects were 96 infants, 7 to 24 months of age, residing in Seoul and its vicinity. Instruments were the Communication and Symbolic Behavior Scales (Iverson, et al., 1999) and the MacAuther Communicative Development Inventory-Korean (Bae and Lim, 2002). Data were analyzed by one-way ANOVA and Pearson's Correlation. Results identified monthly changes in types of communicative gesture used by infants: more deictic at younger and more representational at older ages. Deictic gestures were related to size of the receptive vocabulary and size of the whole vocabulary. Representational gestures were related to acquisition of expressive vocabulary, size of the receptive, and size of the whole vocabulary.

  • PDF