• 제목/요약/키워드: human-information interaction

검색결과 741건 처리시간 0.025초

Realistic Visual Simulation of Water Effects in Response to Human Motion using a Depth Camera

  • Kim, Jong-Hyun;Lee, Jung;Kim, Chang-Hun;Kim, Sun-Jeong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권2호
    • /
    • pp.1019-1031
    • /
    • 2017
  • In this study, we propose a new method for simulating water responding to human motion. Motion data obtained from motion-capture devices are represented as a jointed skeleton, which interacts with the velocity field in the water simulation. To integrate the motion data into the water simulation space, it is necessary to establish a mapping relationship between two fields with different properties. However, there can be severe numerical instability if the mapping breaks down, with the realism of the human-water interaction being adversely affected. To address this problem, our method extends the joint velocity mapped to each grid point to neighboring nodes. We refine these extended velocities to enable increased robustness in the water solver. Our experimental results demonstrate that water animation can be made to respond to human motions such as walking and jumping.

Human Robot Interaction via Evolutionary Network Intelligence

  • Yamaguchi, Toru
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.49.2-49
    • /
    • 2002
  • This paper describes the configuration of a multi-agent system that can recognize human intentions. This system constructs ontologies of human intentions and enables knowledge acquisition and sharing between intelligent agents operating in different environments. This is achieved by using a bi-directional associative memory network. The process of intention recognition is based on fuzzy association inferences. This paper shows the process of information sharing by using ontologies. The purpose of this research is to create human-centered systems that can provide a natural interface in their interaction with people.

  • PDF

그림모델과 파티클필터를 이용한 인간 정면 상반신 포즈 인식 (Pictorial Model of Upper Body based Pose Recognition and Particle Filter Tracking)

  • 오치민;;김민욱;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.186-192
    • /
    • 2009
  • 본 논문은 비전을 이용한 인간 정면 상반신 포즈를 인식 방법에 대해서 기술한다. 일반적으로 HCI(Human Computer Interaction)와 HRI(Human Robot Interaction)에서는 인간이 정면을 바라볼 때 얼굴, 손짓으로 의사소통 하는 경우가 많기 때문에 본 논문에서는 인식의 범위를 인간의 정면 그리고 상반신에 대해서만 한정한다. 인간 포즈인식의 주요 두 가지 어려움은 첫째 인간은 다양한 관절로 이루어진 객체이기 때문에 포즈의 자유도가 높은 문제점 때문에 모델링이 어렵다는 것이다. 둘째는 모델링된 정보와 영상과의 매칭이 어려운 것이다. 이를 해결하기 위해 본 논문에서는 모델링이 쉬운 그림모델(Pictorial Model)을 이용해 인체를 다수 사각형 파트로 모델링 하였고 이를 이용해 주요한 상반신 포즈를 DB화 해 인식한다. DB 포즈로 표현되지 못하는 세부포즈는 인식된 주요 포즈 파라미터로 부터 파티클필터를 이용해 예측한 다수 파티클로부터 가장 높은 사후분포를 갖는 파티클을 찾아 주요 포즈를 업데이트하여 결정한다. 따라서 주요한 포즈 인식과 이를 기반으로 한 세부 포즈를 추적하는 두 단계를 통해 인체 정면 상반신 포즈를 정확하게 인식 할 수 있다.

  • PDF

원격지 공간 가상 휴먼 가이드 영향 분석 (Effects on the Virtual Human Guide of Remote Sites)

  • Chung, Jin-Ho;Jo, Dongsik
    • 한국정보통신학회논문지
    • /
    • 제26권8호
    • /
    • pp.1255-1258
    • /
    • 2022
  • Recently, immersive VR/AR contents have actively increased, and various services related to VR/AR allow users to experience remote places. For example, if failure situations occur frequently in factory of the remote site, mixed reality (MR) with a synthetic virtual human expert in reconstructed remote location can help immediate maintenance task with interaction between the operator and the virtual expert. In this paper, we present a technique for synthesizing the virtual human after capturing a 360-degree panorama of a remote environment, and analyze the effects to apply a method of guiding virtual human by interaction types. According to this paper, it was shown that co-presence level significantly increased when verbal, facial expression, and non-verbal animation of the virtual human was all expressed.

언이기반의 인지시스템을 위한 시공간적 기초화 (Spatiotemporal Grounding for a Language Based Cognitive System)

  • 안현식
    • 제어로봇시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.111-119
    • /
    • 2009
  • For daily life interaction with human, robots need the capability of encoding and storing cognitive information and retrieving it contextually. In this paper, spatiotemporal grounding of cognitive information for a language based cognitive system is presented. The cognitive information of the event occurred at a robot is described with a sentence, stored in a memory, and retrieved contextually. Each sentence is parsed, discriminated with the functional type of it, and analyzed with argument structure for connecting to cognitive information. With the proposed grounding, the cognitive information is encoded to sentence form and stored in sentence memory with object descriptor. Sentences are retrieved for answering questions of human by searching temporal information from the sentence memory and doing spatial reasoning in schematic imagery. An experiment shows the feasibility and efficiency of the spatiotemporal grounding for advanced service robot.

가전 기기를 위한 HIML(Human Interaction Markup Language)에 기반한 사용자 인터페이스 변환 모델에 관한 연구 (A study on user interface converter model base on HIML(Human Interaction Markup Language) for household appliances)

  • 박병철;김건희;손민우;신동규;신동일;김강
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (2)
    • /
    • pp.535-537
    • /
    • 2004
  • 오늘날 유비쿼터스 컴퓨팅 기술, 홈 네트워크, 스마트 홈 등의 연구 개발로 여러 기기들과 컴퓨터가 연동한다. 이에 따라, 다양한 기기에 맞춰 여러 가지 사용자 인터페이스가 필요하며 이를 위해 사용자 인터페이스를 여러 번 개발해야 하는 비효율적인 일이 빈번하다. 또한, 개발자에게 있어서 여러 기기에 사용되는 서로 다른 언어를 모두 익히고 개발하는 것 역시 많은 부담을 준다. 이러한 문제를 해결하기 위해 UIML(User Interlace Markup Language)이란 마크업 언어가 제시되었다. 그러나 UIML도 여러 언어로의 변환을 위해 각각의 다른 변환 모듈을 이용해야 하는 번거로움이 있다. 본 연구에서는 다중 기기로의 사용자 인터페이스 변환과 상황인식이 가능한 마크업 언어인 HIML(Human Interaction Markup Language)을 제안하고 통합된 사용자 인터페이스 변환의 모델을 스마트 홈 환경에 적용해 보았다.

  • PDF

얼굴 주시방향 인식을 이용한 장애자용 의사 전달 시스템 (Human-Computer Interaction System for the disabled using Recognition of Face Direction)

  • 정상현;문인혁
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(4)
    • /
    • pp.175-178
    • /
    • 2001
  • This paper proposes a novel human-computer interaction system for the disabled using recognition of face direction. Face direction is recognized by comparing positions of center of gravity between face region and facial features such as eyes and eyebrows. The face region is first selected by using color information, and then the facial features are extracted by applying a separation filter to the face region. The process speed for recognition of face direction is 6.57frame/sec with a success rate of 92.9% without any special hardware for image processing. We implement human-computer interaction system using screen menu, and show a validity of the proposed method from experimental results.

  • PDF

홈네트워크 시스템상에서 상황인식을 위한 HIML(Human Interaction Markup Language) 미들웨어 (HIML(Human Interaction Markup Language) Middleware for Context Awareness in Home Network)

  • 김준형;손민우;신동규;신동일
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.38-43
    • /
    • 2006
  • 유비쿼터스 컴퓨팅 환경이 발달하면서 홈네트워크 환경의 사용자 상황을 쉽게 인식하고 사용자의 상황 정보에 따라 좀 더 지능적인 서비스를 제공 할 수 있게 되었다. 지능적 서비스를 효과적으로 구현하기 위해서는 상황 정보를 객관적으로 표현할 수 있어야 한다. 상황 정보는 개체의 상황을 특성화 하는데 사용 될 수 있는 정보를 의미한다. 본 논문에서는 홈네트워크 서비스를 효과적으로 제공하기 위하여 상태 정보를 User context, Device context, Proximity(유저와 장치간의 거리) context로 분류하고, 그 상황 정보를 효과적으로 표현할 수 있는 XML기반의 HIML(Human Interaction Markup Language)을 설계하였다. 또한 설계된 HIML 문서를 통해 다양한 플랫폼에서 작동하고, 여러 가전기기와 센서장비들의 상호작용이 가능하게 하는 미들웨어를 설계하고 그 기능을 실험하였다.

  • PDF

인간의 인지 및 감성을 고려한 게임 디자인 전략 (A Cognitive and Emotional Strategy for Computer Game Design)

  • 최동성;김호영;김진우
    • Asia pacific journal of information systems
    • /
    • 제10권1호
    • /
    • pp.165-187
    • /
    • 2000
  • The computer game market has grown rapidly with numerous games produced all over the world. Most games have been developed to make gamers have fun while playing the games. However, there has been little research to address the elements of games that create the perception of being fun. The objectives of this research are to focus on which features provide fun, and then analyze these aspects both qualitatively and quantitatively. This study, through surveys with game players and developers, provides several inputs regarding what it is, that makes certain computer games fun. There are many common characteristics which fun games share, and through grouping and organizing these traits, then compiling the data for use in an AHP(Analytic Hierarchy Process), we measured the disparity in the 'fun' perception between game developer and game user.

  • PDF

인간-컴퓨터 상호 작용을 위한 인간 팔의 3차원 자세 추정 - 기계요소 모델링 기법을 컴퓨터 비전에 적용 (3D Pose Estimation of a Human Arm for Human-Computer Interaction - Application of Mechanical Modeling Techniques to Computer Vision)

  • 한영모
    • 전자공학회논문지SC
    • /
    • 제42권4호
    • /
    • pp.11-18
    • /
    • 2005
  • 인간은 의사 표현을 위해 음성언어 뿐 아니라 몸짓 언어(body languages)를 많이 사용한다 이 몸짓 언어 중 대표적인 것은, 물론 손과 팔의 사용이다. 따라서 인간 팔의 운동 해석은 인간과 기계의 상호 작용(human-computer interaction)에 있어 매우 중요하다고 할 수 있다. 이러한 견지에서 본 논문에서는 다음과 같은 방법으로 컴퓨터비전을 이용한 인간팔의 3차원 자세 추정 방법을 제안하다. 먼저 팔의 운동이 대부분 회전 관절(revolute-joint)에 의해 이루어진다는 점에 착안하여, 컴퓨터 비전 시스템을 활용한 회전 관절의 3차원 운동 해석 기법을 제안한다. 이를 위해 회전 관절의 기구학적 모델링 기법(kinematic modeling techniques)과 컴퓨터 비전의 경사 투영 모델(perspective projection model)을 결합한다. 다음으로, 회전 관절의 3차원 운동해석 기법을 컴퓨터 비전을 이용한 인간 팔의 3차원 자세 추정 문제에 웅용한다. 그 기본 발상은 회전 관절의 3차원 운동 복원 알고리즘을 인간 팔의 각 관절에 순서 데로 적용하는 것이다. 본 알고리즘은 특히 유비쿼터스 컴퓨팅(ubiquitous computing)과 가상현실(virtual reality)를 위한 인간-컴퓨터 상호작용(human-computer interaction)이라는 응용을 목표로, 고수준의 정확도를 갖는 폐쇄구조 형태(closed-form)의 해를 구하는데 주력한다.