• Title/Summary/Keyword: 상호대화형

Search Result 155, Processing Time 0.031 seconds

Optimization Technology for MPEG-4 Scene Description of Interactive T-DMB contents (전송율을 고려한 지상파 DMB 대화형 컨텐츠의 MPEG-4 씬 디스크립션 최적화 기법)

  • Cha Kyung-Ae;Cho Jiyeon;Lee Songlu;Kim Sangwook;Jae YuYoung;Cheong Won-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.556-558
    • /
    • 2005
  • 이동멀티미디어 방송 서비스의 국내 표준인 디지털 멀티미디어 방송(DMB) 시스템에서 대화형 컨텐츠는 MPEG-4 씬 디스크립션 정보에 의해서 이루어진다. 따라서 사용자 상호작용이 풍부한 컨텐츠일수록 씬 디스크립션이 전송되기 위해서 요구되는 비트레이트도 높아진다. 그러나 이동 단말에 고품질의 멀티미디어 데이터를 전송하는 지상파 DMB 환경에서는 씬 디스크립션과 같은 부가 데이터의 전송율을 매우 제한적이다. 그러므로 오디오나 비디오 데이터뿐만 아니라 씬 디스크립션 정보도 저대역폭 및 이동 단말을 대상으로 유효한 품질을 보장할 수 있는 형태로 인코딩되어야 한다. 본 논문에서는 컨텐츠를 전송하기 전에 인코딩된 MPEG-4 씬 디스크립션 정보를 파악하여 전송시점에 예상되는 비트율에 최적화되도록 재구성함으로써 씬 디스크립션 정보의 전송지연 및 손실을 최소화하는 방안의 연구 내용물 제안하고 실험결과를 소개한다.

  • PDF

Development of an interactive smart cooking service system using behavior and voice recognition (행동 및 음성인식 기술을 이용한 대화형 스마트 쿠킹 서비스 시스템 개발)

  • Moon, Yu-Gyeong;Kim, Ga-Yeon;Kim, Yoo-Ha;Park, Min-Ji;Seo, Min-Hyuk;Nah, Jeong-Eun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.1128-1131
    • /
    • 2021
  • COVID-19로 인한 홈 쿠킹 시장 수요 증가로 사람들은 더 편리한 요리 보조 시스템을 필요로 하고 있다. 기존 요리 시스템은 휴대폰, 책을 통해 레시피를 일방적으로 제공하기 때문에 사용자가 요리과정을 중단하고 반복적으로 열람해야 한다는 한계점을 가진다. '대화형 스마트 쿠킹 서비스' 시스템은 요리 과정 전반에서 필요한 내용을 사용자와 상호작용하며 적절하게 인지하고 알려주는 인공지능 시스템이다. Google의 MediaPipe를 사용해 사용자의 관절을 인식하고 모델을 학습시켜 사용자의 요리 동작을 인식하도록 설계했으며, dialogflow를 이용한 챗봇 기능을 통해 필요한 재료, 다음 단계 등의 내용을 실시간으로 제시한다. 또한 실시간 행동 인식으로 요리과정 중 화재, 베임 사고 등의 위험 상황을 감지하여 사용자에게 정보를 전달해줌으로써 사고를 예방한다. 음성인식을 통해 시스템과 사용자 간의 쌍방향적 소통을 가능하게 했고, 음성으로 화면을 제어함으로써 요리과정에서의 불필요한 디스플레이 터치를 방지해 위생적인 요리 환경을 제공한다.

Training Avatars Animated with Human Motion Data (인간 동작 데이타로 애니메이션되는 아바타의 학습)

  • Lee, Kang-Hoon;Lee, Je-Hee
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.4
    • /
    • pp.231-241
    • /
    • 2006
  • Creating controllable, responsive avatars is an important problem in computer games and virtual environments. Recently, large collections of motion capture data have been exploited for increased realism in avatar animation and control. Large motion sets have the advantage of accommodating a broad variety of natural human motion. However, when a motion set is large, the time required to identify an appropriate sequence of motions is the bottleneck for achieving interactive avatar control. In this paper, we present a novel method for training avatar behaviors from unlabelled motion data in order to animate and control avatars at minimal runtime cost. Based on machine learning technique, called Q-teaming, our training method allows the avatar to learn how to act in any given situation through trial-and-error interactions with a dynamic environment. We demonstrate the effectiveness of our approach through examples that include avatars interacting with each other and with the user.

The design and implementation of Manual XML DTD (교범 XML DTD 설계 및 구현)

  • Park, Se-Chul;Lee, Sang-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10b
    • /
    • pp.1189-1192
    • /
    • 2001
  • XML을 이용하여 다른 조직이나 사용자간에 원활한 데이터 교환과 사용을 위해서는 공통적으로 사용할 수 있는 태그나 용어가 표준화되어야 한다. 현재 군 교범(야전교범 및 기술교범)을 XML을 이용하여 개발하려 노력하고 있으나, 사전연구가 미홉하고 표준이 정해지지 않은 상태에서 각 개별 기관별로 문서구조를 정의하고 태그를 사용함으로써 상호 호환성의 결여 및 차후 변환을 위한 낭비적 요소가 우려된다. 따라서 군 내부에서 XML을 적용한 문서 유형별 표준화가 시급히 요구되고 있다. 본 연구에서는 교범에 대한 XML 문서형정의를 설계하고 국방 표준 교범 XML DTD를 제안한다. 표준으로서의 문서형정의는 전자도서관에서 전문을 구축하는데 이용한 수 있을 뿐만 아니라 대화형 전자식 매뉴얼 구축에 기여할 수 있다.

  • PDF

Development of a Voice User Interface for Web Browser using VoiceXML (VoiceXML을 이용한 VUI 지원 웹브라우저 개발)

  • Yea SangHoo;Jang MinSeok
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.11 no.2
    • /
    • pp.101-111
    • /
    • 2005
  • The present web informations are mainly described in terms of HTML, which users obtain through input devices such as mouse, keyboard, etc. Thus the existing GUI environment have not supported human's most natural information acquisition means, that is, voice. To solve the problem, several vendors are developing voice user interface. However these products are deficient in man -machine interactivity and their accommodation of existing web environment. This paper presents a VUI(Voice User Interface) supporting web browser by utilizing more and more maturing speech recognition technology and VoiceXML, a markup language derived from XML. It provides users with both interfaces, VUI as well as GUI. In addition, XML Island technology is applied to the bowser in a way that VoiceXML fragments are nested in HTML documents to accommodate the existing web environment. Also for better interactivity, dialogue scenarios for menu, bulletin, and search engine are suggested.

An Adaptive Web Surfing System for Supporting Autonomous Navigation (자동항해를 지원하는 적응형 웹 서핑 시스템)

  • 국형준
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.4
    • /
    • pp.439-446
    • /
    • 2004
  • To design a user-adaptive web surfing system, we nay take the approach to divide the whole process into three phases; collecting user data, processing the data to construct and improve the user profile, and adapting to the user by applying the user profile. We have designed three software agents. Each privately works in each phase and they collaboratively support adaptive web surfing. They are IIA(Interactive Interface Agent), UPA(User Profile Agent), and ANA(Autonomous Navigation Agent). IIA provides the user interface, which collects data and performs mechanical navigation support. UPA processes the collected user data to build and update the user profile while user is web-surfing. ANA provides an autonomous navigation mode in which it automatically recommends web pages that are selected based on the user profile. The proposed approach and design method, through extensions and refinements, may be used to build a practical adaptive web surfing system.

Color Transformation of Images based on Emotion Using Interactive Genetic Algorithm (대화형 유전자 알고리즘을 이용한 감정 기반 영상의 색변환)

  • Woo, Hye-Yoon;Kang, Hang-Bong
    • The KIPS Transactions:PartB
    • /
    • v.17B no.2
    • /
    • pp.169-176
    • /
    • 2010
  • This paper proposes color transformation of images based on user's preference. Traditional color transformation method transforms only hue based on existing templates that define range of harmonious hue. It does not change saturation and intensity. Users would appreciate the resulting images that adjusted unnatural hue of images. Since color is closely related to peoples' emotion, we can enhance interaction of emotion-based contents and technologies. Therefore, in this paper, we define the range of color of each emotion for the transformation of color and perform the transformation of hue, saturation and intensity. However, the relationship of color and emotion depends on the culture and environment. To reflect these characteristics in color transformation, we propose the transformation of color that is based on user's preference and as a result, people would be more satisfied. We adopt interactive genetic algorithm to learn about user's preference. We surveyed the subject to analyze user's satisfaction about transformed images that are based on preference, and we found that people prefer transformed images to original images. Therefore, we conclude that people are more satisfied with the transformation of the templates which reflected user's preference than the one that did not.

A Study on College Students' Perceptions of ChatGPT (ChatGPT에 대한 대학생의 인식에 관한 연구)

  • Rhee, Jung-uk;Kim, Hee Ra;Shin, Hye Won
    • Journal of Korean Home Economics Education Association
    • /
    • v.35 no.4
    • /
    • pp.1-12
    • /
    • 2023
  • At a time when interest in the educational use of ChatGPT is increasing, it is necessary to investigate the perception of ChatGPT among college students. A survey was conducted to compare the current status of internet and interactive artificial intelligence use and perceptions of ChatGPT after using it in the following courses in Spring 2023; 'Family Life and Culture', 'Fashion and Museums', and 'Fashion in Movies' in the first semester of 2023. We also looked at comparative analysis reports and reflection diaries. Information for coursework was mainly obtained through internet searches and articles, but only 9.84% used interactive AI, showing that its application to learning is still insufficient. ChatGPT was first used in the Spring semester of 2023, and ChatGPT was mainly used among conversational AI. ChatGPT is a bit lacking in terms of information accuracy and reliability, but it is convenient because it allows students to find information while interacting easily and quickly, and the satisfaction level was high, so there was a willingness to use ChatGPT more actively in the future. Regarding the impact of ChatGPT on education, students said that it was positive that they were self-directed and that they set up a cooperative class process to verify information through group discussions and problem-solving attitudes through questions. However, problems were recognized that lowered trust, such as plagiarism, copyright, data bias, lack of up-to-date data learning, and generation of inaccurate or incorrect information, which need to be improved.

Implementation of an AIC Player for Interactive TV Systems (대화형 방송 시스템 응용을 위한 AIC Player의 구현)

  • 조준환;김종호;정제창
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.635-638
    • /
    • 2000
  • 멀티미디어 기술의 총아라고 불리는 차세대 디지털 방송은 현재 선진 각 국에서 표준안 제정에 심혈을 기울이고 있으며 그 핵심적인 기술은 대부분 MPEG-2를 근간으로 하고 있는 실정으로 현재는 양방향 서비스에 대한 논의가 제한적으로 이루어지고 있다. 이에 차세대 영상압축 기술인 MPEG-4에서는 시스템 차원에서 사용자와의 상호작용을 지원할 수 있는 구조로 개발되어 있다. 본 논문에서는 이러한 기술적 차이에 착안해서 현재 제정된 디지털 방송 표준안을 기본으로 하고 사용자와의 상호작용을 지원하는 부가 데이터 방송은 MPEG-4 시스템 표준을 이용하여 양방향성이 강조된 디지털 방송 시스템 모델을 제안한다. 제안된 기술은 별도의 하드웨어의 지원 없이 소프트웨어만으로 처리할 수 있으며 차후 하드웨어로 제작될 디지털 TV 수신기모델을 손쉽게 검증, 제시함으로써 셋톱박스 및 디지털 TV 개발에 응용할 수 있다.

  • PDF

The Development of Reenactment System (사건 재연 시스템 개발)

  • 윤여천;변혜원;전성규
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2001.11b
    • /
    • pp.45-49
    • /
    • 2001
  • 본 논문에서는 실제 카메라 영상으로 획득하기 어려운 화재, 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속, 편리하게 제작할 수 있는 사건 재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 동작 및 모델 라이브러리를 이용하여 다수의 가상캐릭터 움직임을 제어함으로써 고가의 동작 포착 장비와 연기자가 없어도 신속한 가상캐릭터 애니메이션 제작이 가능하다. 사건 재연 시스템의 가상 캐릭터 동작 제어는 동작 지정, 동작 생성, 동작 편집의 세 단계로 구성된다. 동작 지정 단계에서는 사건 시나리오에 따라 모델 라이브러리부터 가상캐릭터와배경 모델을 선택하고, 동작 라이브러리부터 가상캐릭터의 동작을 선택한다. 동작 생성 단계에서는 지정된 특정 사건을 기술하는 동작에 이동 동작을 연결함으로써 가상캐릭터의 부드러운 동작을 생성한다. 동작편집 단계에서는 가상캐릭터 사이의 상호 작용 또는 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 시간에서의 가상캐릭터 위치와 자세 등을 조정한다. 본 시스템은 편리한 사용을 위해 대화형과 스크립트 기반의 인터페이스를 적용하였으며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발하여 Maya의 고성능 그래픽 기능을 활용하였다.

  • PDF