• Title/Summary/Keyword: 휴먼

Search Result 854, Processing Time 0.029 seconds

Efficient Human Care System in Internet of Things Environment (IoT 환경에서의 효율적인 휴먼케어 시스템)

  • Ryu, Chang-Su
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2015.05a
    • /
    • pp.890-891
    • /
    • 2015
  • With South Korea entering aging society, the problem of the elderly living alone is aggravating due to increasing health risks associated with social isolation. This should be counteracted by providing them with supports conducive to the recovery of social relationship and effective management of daily activities, such as health checkups, homecare services, chore services, and contents building for information service. This paper presents a human care system implementing miniaturization and portability for the elderly and other care recipients by integrating various contents into recipients' situation perception, direct experience, and sensor modules as a smartphone application in Internet of Things environment to facilitate their health status monitoring.

  • PDF

A Study on Integration Technology for Immersive Human Interaction (몰입형 가시화를 위한 사용자 인터페이스 연동기술 연구)

  • Park, Chan-Seok;Cha, Moo-Hyun;Mun, Du-Hwan;Gu, Gibeom
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.05a
    • /
    • pp.541-542
    • /
    • 2018
  • CAE 와 같은 고충실도 대용량 엔지니어링 데이터의 시공간 정밀 분석검증을 위해서는 고해상도 몰입형 가시화 기술과 더불어 이를 직관적이고 효율적으로 제어하기 위한 휴먼 인터페이스 기술이 중요하다. 최근 대중화에 근접한 HMD 기기 및 컨트롤러를 이용한 응용 연구가 발표되고 있고, 이를 통해 엔지니어 위주의 정적 분석환경을 벗어나, 설계/해석/운용 전문가들의 동적 협업분석 환경 제공이 가능한 몰입형 가시화 환경 및 휴먼 인터페이스 기술이 적용되고 있다. 하지만 CAE 해석지원을 위한 대화면 몰입형 가시화 환경에서 사용가능한 직관적 인터페이스기술에 대한 연구는 미진한 상황이다. 본 연구에서는 신체의 자연스러운 움직임으로 가상현실을 탐색하고 데이터 조작을 구현할 수 있는 몰입형 가시화 전용의 휴먼 인터페이스 및 연동기술에 대한 연구과정을 소개한다.

Opportunities and Future Directions of Human-Metaverse Interaction (휴먼-메타버스 인터랙션의 기회와 발전방향)

  • Yoon, Hyoseok;Park, ChangJu;Park, Jung Yeon
    • Smart Media Journal
    • /
    • v.11 no.6
    • /
    • pp.9-17
    • /
    • 2022
  • In the COVID-19 pandemic era, non-contact services were demanded and the use of extended reality and metaverse services increased rapidly in various applications. In this paper, we analyze Gather.town, ifland, Roblox, and ZEPETO metaverse platforms in terms of user interaction, avatar-based interaction, and virtual world authoring. Especially, we distinguish interactions among user input techniques that occur in the real world, avatar representation techniques to represent users in the virtual world, and interaction types that create a virtual world through user participation. Based on this work, we highlight the current trends and needs of human-metaverse interaction and forecast future opportunities and research directions.

A Study on Synthesizing Training Data for One-stage Object Detector (단일 단계 검출 방법을 위한 이미지 합성기반 학습 데이터 증강에 관한 연구)

  • Lee, Seon-Gyeong;Jeong, Chi Yoon;Moon, KyeongDeok;Kim, Chae-Kyu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.446-450
    • /
    • 2020
  • 딥러닝 기반의 영상 분석 방법들은 많은 양의 학습 데이터가 필요하며, 학습 데이터 구축에는 많은 시간과 노력이 소요된다. 특히 객체 검출 분야의 경우 영상 내 객체의 위치, 크기, 범주 등의 정보가 모두 필요하여 학습 데이터 구축에 더 많은 어려움이 있으며, 이를 해결하기 위해 최근 이미지 합성기반 데이터 증강에 관한 연구가 활발히 진행되고 있다. 이미지 합성기반 데이터 증강 방법은 배경 영상에 객체를 합성할 때 객체와 배경 영상이 접한 영역에서 아티팩트(Artifact)가 발생하며, 이는 객체 검출 모델이 아티팩트를 객체의 특징으로 모델링하여 검출 성능이 저하되는 원인이 된다. 이러한 문제를 해결하기 위하여 본 논문에서는 양방향 필터 기반의 이미지 합성 방법을 제안하고, 단일 단계 검출의 대표적인 방법인 RetinaNet을 이용하여 이미지 합성기반 데이터 증강 방법의 성능을 분석하였다. 공개 데이터셋에 대한 실험 결과 본 논문에서 사용한 단일 검출 방법 및 데이터 증강 기법을 사용하면 더 적은 양의 증강 데이터로 기존 방법과 동일한 성능을 보여주는 것을 확인하였다.

Design of Avatar Rehabilitation Content Service with Limited Range of Motion (관절 가동 범위의 제한 정보를 반영한 아바타 기반 재활 운동 콘텐츠 서비스 설계)

  • Yoon, Chang-Rak;Chang, Yoon-Seop;Kim, Jae-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.990-992
    • /
    • 2021
  • 근골격계 질환 환자들은 정상인들에 비해 질환 부위의 관절 가동 범위(ROM, Range of Motion)가 제한되는 경향이 있다. 이러한 근골격계 질환 환자들의 관절 가동 범위 제한을 고려하지 않은 재활 운동 콘텐츠 서비스는 오히려 환자의 건강 상태를 악화시킬 수도 있으므로 주의해야 하는 서비스 요인이다. 본 논문에서는 근골격계 질환 환자의 제한적인 관절 가동 범위를 고려한 아바타 기반의 재활 운동 콘텐츠 서비스 기술을 제안한다. 이에 재활 운동의 모션 캡처 데이터로부터 아바타 재활 운동 콘텐츠로의 변환 기술과 근골격계 질환 환자의 관절 가동 범위 제한 정보를 적용한 아바타 기반 재활 운동 콘텐츠 재현 기술을 설계한다. 일련의 기술적 구성 요소를 고찰하고 설계함으로써 근골격계 질환 환자들의 서로 다른 관절 가동 범위를 반영한 맞춤형 재활 운동 콘텐츠 서비스가 안전하고 효과적인 재활을 지원할 수 있도록 한다.

Object Detection Based on Virtual Humans Learning (가상 휴먼 학습 기반 영상 객체 검출 기법)

  • Lee, JongMin;Jo, Dongsik
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.10a
    • /
    • pp.376-378
    • /
    • 2022
  • Artificial intelligence technology is widely used in various fields such as artificial intelligence speakers, artificial intelligence chatbots, and autonomous vehicles. Among these AI application fields, the image processing field shows various uses such as detecting objects or recognizing objects using artificial intelligence. In this paper, data synthesized by a virtual human is used as a method to analyze images taken in a specific space.

  • PDF

Real-Time Human Tracker Based Location and Motion Recognition for the Ubiquitous Smart Home (유비쿼터스 스마트 홈을 위한 위치와 모션인식 기반의 실시간 휴먼 트랙커)

  • Park, Se-Young;Shin, Dong-Kyoo;Shin, Dong-Il;Cuong, Nguyen Quoe
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06d
    • /
    • pp.444-448
    • /
    • 2008
  • The ubiquitous smart home is the home of the future that takes advantage of context information from the human and the home environment and provides an automatic home service for the human. Human location and motion are the most important contexts in the ubiquitous smart home. We present a real-time human tracker that predicts human location and motion for the ubiquitous smart home. We used four network cameras for real-time human tracking. This paper explains the real-time human tracker's architecture, and presents an algorithm with the details of two functions (prediction of human location and motion) in the real-time human tracker. The human location uses three kinds of background images (IMAGE1: empty room image, IMAGE2:image with furniture and home appliances in the home, IMAGE3: image with IMAGE2 and the human). The real-time human tracker decides whether the human is included with which furniture (or home appliance) through an analysis of three images, and predicts human motion using a support vector machine. A performance experiment of the human's location, which uses three images, took an average of 0.037 seconds. The SVM's feature of human's motion recognition is decided from pixel number by array line of the moving object. We evaluated each motion 1000 times. The average accuracy of all the motions was found to be 86.5%.

  • PDF

Development of Series Connectable Wheeled Robot Module (직렬연결이 가능한 소형 바퀴 로봇 모듈의 개발)

  • Kim, Na-Bin;Kim, Ye-Ji;Kim, Ji-Min;Hwang, Yun Mi;Bong, Jae-Hwan
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.5
    • /
    • pp.941-948
    • /
    • 2022
  • Disaster response robots are deployed to disaster sites where human access is difficult and dangerous. The disaster response robots explore the disaster sites prevent a structural collapse and perform lifesaving to minimize damage. It is difficult to operate robots in the disaster sites due to rough terrains where various obstacles are scattered, communication failures and invisible environments. In this paper, we developed a series connectable wheeled robot module. The series connectable wheeled robot module was developed into two types: an active driven robot module and a passive driven robot module. A wheeled robot was built by connecting the two active type robot modules and one passive type robot module. Two robot modules were connected by one DoF rotating joint, allowing the wheeled robot to avoid obstructions in a vertical direction. The wheeled robot performed driving and obstacle avoidance using only pressure sensors, which allows the wheeled robot operate in the invisible environment. An obstacle avoidance experiment was conducted to evaluate the performance of the wheeled robot consisting of two active driven wheeled robot modules and one passive driven wheeled robot module. The wheeled robot successfully avoided step-shaped obstacles with a maximum height of 80 mm in a time of 24.5 seconds using only a pressure sensors, which confirms that the wheeled robot possible to perform the driving and the obstacle avoidance in invisible environment.