• 제목/요약/키워드: Text Input

검색결과 360건 처리시간 0.02초

VR 핸드트레킹을 통한 상호작용 인터페이스 설계 (Interactive Interface Design Through VR Hand Tracking)

  • 이주상;이효승;최우진
    • 한국전자통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.213-218
    • /
    • 2023
  • VR HMD를 사용하기 위해서는 양손에 별도의 컨트롤러를 통한 조작이 요구된다. VR 내에서의 텍스트 입력을 위한 방식으로는 컨트롤러를 사용하여 화면상의 가상 키보드 자판을 하나씩 선택하는 방식, 컴퓨터와 VR을 연결하여 컴퓨터의 자원인 키보드를 통해 입력하는 방식, 또는 무선 키보드를 구매하여 VR과 무선키보드 연결 방식으로 입력할 수 있다. 이처럼 현재 VR 장비에서의 텍스트 입력 방식은 사용자에게 불편 및 추가적인 비용을 발생시킨다. 이러한 이유 등으로 VR관련 콘텐츠의 대부분은 게임 또는 뷰어 등 단순 기능에 국한되어 VR 장비가 단순 게임기로 인식될 우려가 있다. 이에 본 연구에서는 Oculus Quest2 디바이스에서 제공되는 핸드 트래킹을 이용한 멀티입력 인터페이스를 설계하고 일부 구현한다. 이를 통해 VR 장비를 사용하여 게임 뿐만 아니라 문서작업, 업무처리 등 다양한 작업을 편리하게 사용할 수 있기를 기대한다.

항해안전을 위한 AIS와 ECDIS 기반의 문자통신시스템 개발에 관한 연구 (A Study on the Development of Text Communication System based on AIS and ECDIS for Safe Navigation)

  • 안영중;강석용;이윤석
    • 해양환경안전학회지
    • /
    • 제21권4호
    • /
    • pp.403-408
    • /
    • 2015
  • 해상에서 발생하는 선박 간 음성통신의 문제점을 보완하기 위한 방법으로, 언어적 오류와 VHF 사용제한 및 잡음 등에 영향을 받지 않는 텍스트 기반의 통신시스템을 AIS의 통신기능과 ECDIS의 화면전시 및 입력기능을 연계하는 방법에 착안하여 설계하였다. 개발된 문자통신시스템은 메시지를 이용해 정확한 의사전달이 가능하며, 사용자 편의성 향상을 위한 다양한 UI들을 소프트웨어를 통해 구현하였다. 하드웨어의 추가적인 설치와 개조 없이 구현되고, Message Banner Interface를 이용해 통신문장을 키보드 입력 없이 선택만으로 송신할 수 있으며, 자체 메시지 코딩과 디코딩을 통해 처리속도를 향상시키는 장점을 가진다. 문자통신시스템의 실선적용은 사용자의 언어적 한계와 인식오류를 감소시킬 수 있고, 다양한 VHF 음성통신의 문제를 해결할 수 있는 가장 실용적인 대안으로 판단된다. 또한 해상교통량이 많은 수역에서의 VHF 통신량 감소와 텍스트 기반의 정확한 의사전달과 협력동작 요청으로 선박 간 충돌사고 예방에 도움이 될 것이다.

가변 적응형 사전을 이용한 텍스트 압축방식의 병렬 처리를 위한 VLSI 구조 (A Novel VLSI Architecture for Parallel Adaptive Dictionary-Base Text Compression)

  • 이용두;김희철;김중규
    • 한국정보처리학회논문지
    • /
    • 제4권6호
    • /
    • pp.1495-1507
    • /
    • 1997
  • 컴퓨터 통신망의 발달로 다량의 텍스트(Text) 또는 영상(Image) 정보의 전달이 이루어 지고 있다. 텍스트 압축과정에서 주어진 어휘를 이전에 나타난 같은 어휘를 가리키는 포인터로 대치시키는 원리에 준하여 설계된 LZ77 알고리즘은 가변적응형(adaptive) 사전을 이용한 텍스트 압축 방식으로 실제적으로 가장 많이 사용되는 알고리즘이다. 본 논문은 LZ77의 병렬 처리를 위해 LZ77의 Parallelism에 대한 분석 결과를 보여주며, 그 분석 결과를 적용한 병렬 LZ77 알고리즘의 설계, 그리고 그러한 병렬 LZ77 알고리즘을 처리하도록 고안된 VLSI 시스템 구조에 관한 연구 내용을 기술한다. 이전의 유사한 연구 내용과 비교하여, 본 논문에서 제안된 VLSI 시스템은 사전 윈도우(dictionary window)의 크기에 제한이 없으므로 확장성이 뛰어난 장점을 갖으며, 입력 텍스트의 길이가 (N)일때, 사전 윈도우의 크기에 관계없이 그 처리속도가 O(N)이며 VLSI 구현시 다른 유사한 시스템보다 향상된 집적도를 갖는다.

  • PDF

스마트폰 유형에 따른 문자 입력 시 뇌파 및 아래팔 근활성도 비교 (A Comparison of EEG and Forearms EMG Activity depend on the Type of Smartphone when Inputting Text Messages)

  • 이형수;고경진;김진원;박송이;박지선;박진리;석혜리;양구름;양시은;윤광오
    • 대한통합의학회지
    • /
    • 제2권2호
    • /
    • pp.79-88
    • /
    • 2014
  • Purpose: This study investigated the relationship between smartphone addiction propensities and compare muscle activity of the forearms and brain wave depend on the type of smartphone when inputting text messages. Method: We used an EMG to measure the change in muscle activity by attaching pads to the four muscles in both forearms of all 16 participants. We simultaneously conducted EEG measurements by observing the changes in alpha and beta waves recorded from electrode attached to both ears and the forehead of the participants. The participants had to input a given text using three different types of smartphones for ten minutes each. Result: The comparison of the EMG when inputting text involved a one way analysis of variance and the results showed that the iPad3 was highest for muscle activity followed by GALAXY Note2 and iPhone4. For EEG measurement, a one way analysis of variance was also used and the results showed iPhone4 was higest followed by GALAXY Note2 and finally iPad3 for EEG stress score. Conclusion: The results are thought to be used as reference data for smart phone users.

전화기 숫자 자판을 이용한 대화형 한글 문자 입력 방법 (An Interactive Hangul Text Entry Method Using The Numeric Phone Keypad)

  • 박재화
    • 정보처리학회논문지B
    • /
    • 제14B권5호
    • /
    • pp.391-400
    • /
    • 2007
  • 휴대용 단말기의 숫자 자판을 이용해서 보다 편리하게 한글을 입력할 수 있도록 하는 대화형 방식을 제시하였다. 사용자는 입력하고자 하는 글자의 해당 자소가 있는 키를 한 번씩 눌러 키 시퀀스를 발생시킨다. 인터페이스는 사용자가 입력한 키 시퀀스에 대해 조합 가능한 모든 글자를 발생 시키고 사용자는 발생된 글자 중에서 입력하고자 하는 글자를 선택하도록 한다. 이를 통해 기존의 방법에서 공통으로 사용되는 수동적이고 일차원적인 자소 중심의 인터페이스를 상호 작용이 가능한 입체적인 글자 중심의 방법으로 개선 가능하다. 이 방법은 최종 글자의 입력을 완료하기 위해 필요한 글자 선택의 과정이 부가적으로 필요하지만, 기존 방법의 가장 큰 단점인 멀티탭과 불분명한 음소의 결정을 위한 키 조작의 불편함을 근본적으로 없앨 수 있다. 또한 모든 글자의 입력이 필기 순서와 동일하게 기본 자소에 의해 입력이 가능함으로 사용자의 문자입력에 대한 복잡도를 감소시킬 수 있다. 제안된 방법의 장단점을 실험을 통해 기존의 방법과 비교하였다.

T-EBOW를 이용한 취업알선 챗봇용 단문 분류 연구 (Short Text Classification for Job Placement Chatbot by T-EBOW)

  • 김정래;김한준;정경희
    • 인터넷정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.93-100
    • /
    • 2019
  • 최근 각종 사업 분야에서 기업들은 기존 메신저 플랫폼에 인공지능을 더하여 다양한 환경을 대상으로 챗봇 서비스 지원에 주력하고 있다. 취업알선 분야의 기관에서도 취업상담 서비스 품질 제고와 상담 인력 해소를 위해 챗봇 서비스를 요구한다. 일반적인 텍스트 기반 챗봇은 입력된 사용자 문장을 학습된 문장으로 분류하여 적합한 답변을 사용자에게 제공한다. 최근 소셜 네트워크 서비스의 활성화 영향으로 챗봇에 입력되는 사용자 문장은 단문으로 입력되는 경향이 있다. 따라서 단문 분류의 성능향상은 챗봇 서비스의 성능향상에 기여할 수 있다. 본 연구는 취업알선 챗봇을 위한 단문 분류 강화를 위해 기존 연구의 개념 정보뿐만 아니라 번역문 정보를 활용하는 방법인 T-EBOW (Translation-Extended Bag Of Words)를 제안한다. T-EBOW를 기계학습 분류 모델에 적용한 단문 분류의 성능은 기존 방법에 비해 우수한 성능 평가 결과를 보였다.

한글 음소 단위 딥러닝 모형을 이용한 감성분석 (Sentiment Analysis Using Deep Learning Model based on Phoneme-level Korean)

  • 이재준;권순범;안성만
    • 한국IT서비스학회지
    • /
    • 제17권1호
    • /
    • pp.79-89
    • /
    • 2018
  • Sentiment analysis is a technique of text mining that extracts feelings of the person who wrote the sentence like movie review. The preliminary researches of sentiment analysis identify sentiments by using the dictionary which contains negative and positive words collected in advance. As researches on deep learning are actively carried out, sentiment analysis using deep learning model with morpheme or word unit has been done. However, this model has disadvantages in that the word dictionary varies according to the domain and the number of morphemes or words gets relatively larger than that of phonemes. Therefore, the size of the dictionary becomes large and the complexity of the model increases accordingly. We construct a sentiment analysis model using recurrent neural network by dividing input data into phoneme-level which is smaller than morpheme-level. To verify the performance, we use 30,000 movie reviews from the Korean biggest portal, Naver. Morpheme-level sentiment analysis model is also implemented and compared. As a result, the phoneme-level sentiment analysis model is superior to that of the morpheme-level, and in particular, the phoneme-level model using LSTM performs better than that of using GRU model. It is expected that Korean text processing based on a phoneme-level model can be applied to various text mining and language models.

사용자 리뷰 분석을 통한 호텔 평가 항목별 누락 평점 예측 방법론 (Predicting Missing Ratings of Each Evaluation Criteria for Hotel by Analyzing User Reviews)

  • 이동훈;부현경;김남규
    • 한국IT서비스학회지
    • /
    • 제16권4호
    • /
    • pp.161-176
    • /
    • 2017
  • Recently, most of the users can easily get access to a variety of information sources about companies, products, and services through online channels. Therefore, the online user evaluations are becoming the most powerful tool to generate word of mouth. The user's evaluation is provided in two forms, quantitative rating and review text. The rating is then divided into an overall rating and a detailed rating according to various evaluation criteria. However, since it is a burden for the reviewer to complete all required ratings for each evaluation criteria, so most of the sites requested only mandatory inputs for overall rating and optional inputs for other evaluation criteria. In fact, many users input only the ratings for some of the evaluation criteria and the percentage of missed ratings for each criteria is about 40%. As these missed ratings are the missing values in each criteria, the simple average calculation by ignoring the average 40% of the missed ratings can sufficiently distort the actual phenomenon. Therefore, in this study, we propose a methodology to predict the rating for the missed values of each criteria by analyzing user's evaluation information included the overall rating and text review for each criteria. The experiments were conducted on 207,968 evaluations collected from the actual hotel evaluation site. As a result, it was confirmed that the prediction accuracy of the detailed criteria ratings by the proposed methodology was much higher than the existing average-based method.

Word-Level Embedding to Improve Performance of Representative Spatio-temporal Document Classification

  • Byoungwook Kim;Hong-Jun Jang
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.830-841
    • /
    • 2023
  • Tokenization is the process of segmenting the input text into smaller units of text, and it is a preprocessing task that is mainly performed to improve the efficiency of the machine learning process. Various tokenization methods have been proposed for application in the field of natural language processing, but studies have primarily focused on efficiently segmenting text. Few studies have been conducted on the Korean language to explore what tokenization methods are suitable for document classification task. In this paper, an exploratory study was performed to find the most suitable tokenization method to improve the performance of a representative spatio-temporal document classifier in Korean. For the experiment, a convolutional neural network model was used, and for the final performance comparison, tasks were selected for document classification where performance largely depends on the tokenization method. As a tokenization method for comparative experiments, commonly used Jamo, Character, and Word units were adopted. As a result of the experiment, it was confirmed that the tokenization of word units showed excellent performance in the case of representative spatio-temporal document classification task where the semantic embedding ability of the token itself is important.

Sentence-Chain Based Seq2seq Model for Corpus Expansion

  • Chung, Euisok;Park, Jeon Gue
    • ETRI Journal
    • /
    • 제39권4호
    • /
    • pp.455-466
    • /
    • 2017
  • This study focuses on a method for sequential data augmentation in order to alleviate data sparseness problems. Specifically, we present corpus expansion techniques for enhancing the coverage of a language model. Recent recurrent neural network studies show that a seq2seq model can be applied for addressing language generation issues; it has the ability to generate new sentences from given input sentences. We present a method of corpus expansion using a sentence-chain based seq2seq model. For training the seq2seq model, sentence chains are used as triples. The first two sentences in a triple are used for the encoder of the seq2seq model, while the last sentence becomes a target sequence for the decoder. Using only internal resources, evaluation results show an improvement of approximately 7.6% relative perplexity over a baseline language model of Korean text. Additionally, from a comparison with a previous study, the sentence chain approach reduces the size of the training data by 38.4% while generating 1.4-times the number of n-grams with superior performance for English text.