• 제목/요약/키워드: human and computer interaction

검색결과 602건 처리시간 0.028초

Value Complexity of Virtual Communities and Information Security in the Postmodern World: Semantic Focus and Language Innovations

  • Khrypko, Svitlana;ALEKSANDROVA, Olena;Stoliarchuk, lesia;Ishchuk, Olena;OBLOVA, Liudmyla;Pavlovska, Olena;Andrii, Bezuhlyi
    • International Journal of Computer Science & Network Security
    • /
    • 제21권12spc호
    • /
    • pp.712-718
    • /
    • 2021
  • Virtual communities are studied to analyze their characteristic features, types, and tole to modern society. The article is aimed at creating a classification of virtual communities according to specific characteristics, which can be used to model the interaction, and necessity of components that are important for the community. The classification of virtual communities will contribute to their better performance and satisfy the users' needs in information. The study reveals the value structure of virtual communities, educational and communicative influence, and the possible threats these communities may bring to society and security.

손의 외곽선 추출에 의한 실시간 제스처 인식 (Real-Time Gesture Recognition Using Boundary of Human Hands from Sequence Images)

  • 이인호;박찬종
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.438-442
    • /
    • 1999
  • 제스처 인식은 직관적일 뿐 아니라, 몇 가지의 기본 구성요소에 의하여 코드화(code)가 용이하여, 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)에 있어서 폭넓게 사용되고 있다. 본 논문에서는 손의 모양이나 크기와 같은 개인차 및 조명의 변화나 배율과 같은 입력환경의 영향을 최소화하여, 특별한 초기화 과정이나 모델의 준비과정 없이도 제스처를 인식할 수 있고, 적은 계산량으로 실시간 인식이 가능한 제스처 인식 시스템의 개발을 목표로 한다. 본 논문에서는 손에 부착하는 센서나 마커 없이, CCD 카메라에 의하여 입력된 컬러영상에서, 컬러정보 및 동작정보를 이용하여 손영역을 추출하고, 추출된 손의 경계선 정보를 이용하여 경계선-중심 거리 함수를 생성했다. 그리고, 손가락의 끝 부분에서는 경계선-중심 거리가 극대점을 이룬다는 원리를 이용하여 생성된 함수의 주파수를 분석하여 극대점을 구함으로써 각각의 손가락 끝 위치를 찾고, 손의 자세를 인식하여 제스처를 인식했다. 또한 본 논문에서 제안된 제스처 인식 방법은 PC상에서 구현되어 그 유용성과 실효성이 증명되었다.

  • PDF

지능형 화상 검색 시스템에서의 사용자 모델을 이용한 사용자 적응 (User Adaptation Using User Model in Intelligent Image Retrieval System)

  • 김용환;이필규
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3559-3568
    • /
    • 1999
  • 수많은 정보의 홍수 속에 정보 과다는 현대인의 피할 수 없는 문제로 대두되었다. 특히, 인터넷과 컴퓨팅 기술의 발전으로 정보 자원이 급속도로 증가하고 있다. 따라서, 사용자가 원하는 정보를 찾아내는 것은 더욱 어려워졌다. 이러한 정보 검색 문제들을 해결하기 위하여 많은 정보 검색 시스템이 나타나게 되었다. 현재의 정보 검색 시스템들은 문서 검색에서는 사용자의 요구에 맞는 결과를 찾아 주고 있다. 그러나. 화상에 대한 검색 시스템의 연구는 초보 단계이기 때문에 사용자의 요구에 맞는 결과를 출력하지 못하고 있다. 이러한 문제를 해결하기 위해서 본 논문에서는 화상 검색 시스템이 사용자 모델을 이용하여 사용자에게 적응할 수 있는 기능을 부여하기 위하여 지능 사용자 인터페이스에 관한 고찰을 통한 인간-컴퓨터의 상호 작용 모델인 HCOS(Human-Computer Symmetry) 모델을 적용하고 이를 기반으로 화상 검색 시스템에서의 사용자 적응 능력을 갖는 지능 사용자 인터페이스를 제안하였다. 지능 사용자 인터페이스는 정보 검색의 복잡성과 사용자와 시스템간의 의미상의 차이를 감소시켜야 하며 사용자의 질의 성향과 관심을 반영할 수 있도록 학습 기능과 적응 기능을 포함하고 있어야 한다. 이를 위해 본 논문에서는 화상 검색을 위한 사용자 모델에 기계 학습(Machine Learning) 알고리듬인 결정 트리(Decision Tree)와 역전파 신경망(Backpropagation Neural Network)을 사용하였다. 지능 사용자 인터페이스의 화상 검색 실험을 통하여 시스템이 사용자에 적응하여 검색 효율이 좋아짐을 알 수 있었다.

  • PDF

A Novel Method for Hand Posture Recognition Based on Depth Information Descriptor

  • Xu, Wenkai;Lee, Eung-Joo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권2호
    • /
    • pp.763-774
    • /
    • 2015
  • Hand posture recognition has been a wide region of applications in Human Computer Interaction and Computer Vision for many years. The problem arises mainly due to the high dexterity of hand and self-occlusions created in the limited view of the camera or illumination variations. To remedy these problems, a hand posture recognition method using 3-D point cloud is proposed to explicitly utilize 3-D information from depth maps in this paper. Firstly, hand region is segmented by a set of depth threshold. Next, hand image normalization will be performed to ensure that the extracted feature descriptors are scale and rotation invariant. By robustly coding and pooling 3-D facets, the proposed descriptor can effectively represent the various hand postures. After that, SVM with Gaussian kernel function is used to address the issue of posture recognition. Experimental results based on posture dataset captured by Kinect sensor (from 1 to 10) demonstrate the effectiveness of the proposed approach and the average recognition rate of our method is over 96%.

Development and Measurement of Learners' Satisfaction Index Model for Cyber Education

  • Kim, Chang-Su;Jung, Hoe-Kyung
    • Journal of information and communication convergence engineering
    • /
    • 제8권3호
    • /
    • pp.343-347
    • /
    • 2010
  • Cyber education has been predicted that it would become the primary education system of 21st century as a way of education focusing on consumers, with the aspect that it seems to be able to satisfy the demand about re-education and lifelong education as the acceleration of fast knowledge accumulation throughout every field of society in the digital era. However, cyber education system has a lot of problems which are for that it lacks of human resources for effective interaction, and it can be disadvantageous to certain type of students with a class environment concentrated on reading and writing and with foundation on computer technology. Therefore, in this thesis, We intended to analyze factors influencing satisfaction of people studying in a situation that cyber education has been required to be a mainstream system of education in the midst of trend of changing paradigm of college education recently, and to suggest some possible solutions for cyber education at university.

Speech Emotion Recognition with SVM, KNN and DSVM

  • Hadhami Aouani ;Yassine Ben Ayed
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.40-48
    • /
    • 2023
  • Speech Emotions recognition has become the active research theme in speech processing and in applications based on human-machine interaction. In this work, our system is a two-stage approach, namely feature extraction and classification engine. Firstly, two sets of feature are investigated which are: the first one is extracting only 13 Mel-frequency Cepstral Coefficient (MFCC) from emotional speech samples and the second one is applying features fusions between the three features: Zero Crossing Rate (ZCR), Teager Energy Operator (TEO), and Harmonic to Noise Rate (HNR) and MFCC features. Secondly, we use two types of classification techniques which are: the Support Vector Machines (SVM) and the k-Nearest Neighbor (k-NN) to show the performance between them. Besides that, we investigate the importance of the recent advances in machine learning including the deep kernel learning. A large set of experiments are conducted on Surrey Audio-Visual Expressed Emotion (SAVEE) dataset for seven emotions. The results of our experiments showed given good accuracy compared with the previous studies.

Selection of features and hidden Markov model parameters for English word recognition from Leap Motion air-writing trajectories

  • Deval Verma;Himanshu Agarwal;Amrish Kumar Aggarwal
    • ETRI Journal
    • /
    • 제46권2호
    • /
    • pp.250-262
    • /
    • 2024
  • Air-writing recognition is relevant in areas such as natural human-computer interaction, augmented reality, and virtual reality. A trajectory is the most natural way to represent air writing. We analyze the recognition accuracy of words written in air considering five features, namely, writing direction, curvature, trajectory, orthocenter, and ellipsoid, as well as different parameters of a hidden Markov model classifier. Experiments were performed on two representative datasets, whose sample trajectories were collected using a Leap Motion Controller from a fingertip performing air writing. Dataset D1 contains 840 English words from 21 classes, and dataset D2 contains 1600 English words from 40 classes. A genetic algorithm was combined with a hidden Markov model classifier to obtain the best subset of features. Combination ftrajectory, orthocenter, writing direction, curvatureg provided the best feature set, achieving recognition accuracies on datasets D1 and D2 of 98.81% and 83.58%, respectively.

얼굴 방향에 기반을 둔 컴퓨터 화면 응시점 추적 (A Gaze Tracking based on the Head Pose in Computer Monitor)

  • 오승환;이희영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.227-230
    • /
    • 2002
  • In this paper we concentrate on overall direction of the gaze based on a head pose for human computer interaction. To decide a gaze direction of user in a image, it is important to pick up facial feature exactly. For this, we binarize the input image and search two eyes and the mouth through the similarity of each block ( aspect ratio, size, and average gray value ) and geometric information of face at the binarized image. We create a imaginary plane on the line made by features of the real face and the pin hole of the camera to decide the head orientation. We call it the virtual facial plane. The position of a virtual facial plane is estimated through projected facial feature on the image plane. We find a gaze direction using the surface normal vector of the virtual facial plane. This study using popular PC camera will contribute practical usage of gaze tracking technology.

  • PDF

인체 모델링을 이용한 인체의 조인트 자동 검출 및 인체 매핑 (Automatic Detecting of Joint of Human Body and Mapping of Human Body using Humanoid Modeling)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제15권4호
    • /
    • pp.851-859
    • /
    • 2011
  • 본 논문에서는 인간과 컴퓨터의 상호작용을 위해 연속된 입력영상에서 인체의 실루엣과 조인트를 자동추출하고 조인트를 추적함으로 객체를 추적하는 방법을 제안한다. 또한 추출된 조인트를 이용하여 인체를 매핑하여 사람의 동작을 재현한다. 이를 위해 인체의 치수를 이용하여 인체 움직임을 제어하는 14개의 조인트로 인체를 모델링한다. 제안방법은 단일카메라로 RGB 컬러로 입력되는 영상을 색상, 채도, 명암의 영상으로 변환한 후 차 영상기법을 이용하여 인체의 실루엣을 추출한다. 추출된 실루엣의 코너점과 인체 모델링 정보를 이용하여 조인트를 자동 검출한다. 객체의 움직임 추적은 전체 영상 중 조인트를 중심으로 블록매칭 기법을 이용하며 추출된 조인트의 위치정보를 이용하여 인체의 움직임을 매핑한다. 제안방법을 실험동영상에 적용한 결과 인체의 실루엣과 조인트를 자동 검출하며 추출된 조인트로 인체의 매핑이 효율적으로 이루어졌다. 또한 조인트의 추적이 매핑된 인체에 반영되어 인체의 움직임도 적절히 표현되었다.

학습모형을 이용한 워드프로세서의 평가방법 개발 (The evaluation of Word Processors by Learning Model)

  • 손일문;홍상우;이상철
    • 산업경영시스템학회지
    • /
    • 제20권41호
    • /
    • pp.203-212
    • /
    • 1997
  • The interface of computer software has to promote human-computer interaction. The one quality of interface to promote HCI should be evaluted with regard to user's information processing. The usability of interface is one of the main components of it's quality, and it is straightforwardly concerned with learnability, especially when users want to use a software at the first stage. In this paper, word processors, wide spreadly used in OA environments is studied in respect to menu structure on the interface. An cognitive menu structure is suggested by user's conceptual network of the main functions of word processor. Two word processors is selected to compare with the cognitive menu structure and to evalute learnabilities by teaming model.

  • PDF