• 제목/요약/키워드: sign language

검색결과 280건 처리시간 0.021초

한글 수화 및 지화의 실시간 인식 시스템 구현 (Ral-time Recognition of Continuous KSL & KMA using Automata and Fuzzy Techniques)

  • 이찬수;김종성;박규태;변증남;장원;김성권
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1996년도 추계학술대회 학술발표 논문집
    • /
    • pp.333-336
    • /
    • 1996
  • The sign language is a method of communication for deaf person. For sign communication, sign language and manual alphabet are used continuously. In this paper is proposed a system which recognize Korean sign language(KSL) and Korean manual alphabet(KMA) continuously. For recognizing KSL and KMA, basic elements for sign language, namely, the 14 hand directions, 23 hand postures, and 14 hand orientations are used. At first, this system recognize current motion state using speed and change of speed in motion by state automata. Using state, basic element classifiers using Fuzzy Min-Max Neural Network and Fuzzy Rule are executed. Meaning of signed gesture is selected by using basic elements which was recognized.

  • PDF

SEMANTIC FEATURE DETECTION FOR REAL-TIME IMAGE TRANSMISSION OF SIGN LANGUAGE AND FINGER SPELLING

  • Hou, Jin;Aoki, Yoshinao
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1662-1665
    • /
    • 2002
  • This paper proposes a novel semantic feature detection (SFD) method for real-time image transmission of sign language and finger spelling. We extract semantic information as an interlingua from input text by natural language processing, and then transmit the semantic feature detection, which actually is a parameterized action representation, to the 3-D articulated humanoid models prepared in each client in remote locations. Once the SFD is received, the virtual human will be animated by the synthesized SFD. The experimental results based on Japanese sign langauge and Chinese sign langauge demonstrate that this algorithm is effective in real-time image delivery of sign language and finger spelling.

  • PDF

Efficient Sign Language Recognition and Classification Using African Buffalo Optimization Using Support Vector Machine System

  • Karthikeyan M. P.;Vu Cao Lam;Dac-Nhuong Le
    • International Journal of Computer Science & Network Security
    • /
    • 제24권6호
    • /
    • pp.8-16
    • /
    • 2024
  • Communication with the deaf has always been crucial. Deaf and hard-of-hearing persons can now express their thoughts and opinions to teachers through sign language, which has become a universal language and a very effective tool. This helps to improve their education. This facilitates and simplifies the referral procedure between them and the teachers. There are various bodily movements used in sign language, including those of arms, legs, and face. Pure expressiveness, proximity, and shared interests are examples of nonverbal physical communication that is distinct from gestures that convey a particular message. The meanings of gestures vary depending on your social or cultural background and are quite unique. Sign language prediction recognition is a highly popular and Research is ongoing in this area, and the SVM has shown value. Research in a number of fields where SVMs struggle has encouraged the development of numerous applications, such as SVM for enormous data sets, SVM for multi-classification, and SVM for unbalanced data sets.Without a precise diagnosis of the signs, right control measures cannot be applied when they are needed. One of the methods that is frequently utilized for the identification and categorization of sign languages is image processing. African Buffalo Optimization using Support Vector Machine (ABO+SVM) classification technology is used in this work to help identify and categorize peoples' sign languages. Segmentation by K-means clustering is used to first identify the sign region, after which color and texture features are extracted. The accuracy, sensitivity, Precision, specificity, and F1-score of the proposed system African Buffalo Optimization using Support Vector Machine (ABOSVM) are validated against the existing classifiers SVM, CNN, and PSO+ANN.

딥러닝 방식의 웨어러블 센서를 사용한 미국식 수화 인식 시스템 (American Sign Language Recognition System Using Wearable Sensors with Deep Learning Approach)

  • 정택위;김범준
    • 한국전자통신학회논문지
    • /
    • 제15권2호
    • /
    • pp.291-298
    • /
    • 2020
  • 수화는 청각 장애인이 다른 사람들과 의사소통할 수 있도록 설계된 것이다. 그러나 수화는 충분히 대중화되어 있지 않기 때문에 청각 장애인이 수화를 통해서 일반 사람들과 원활하게 의사소통하는 것은 쉽지 않은 문제이다. 이러한 문제점에 착안하여 본 논문에서는 웨어러블 컴퓨팅 및 딥러닝 기반 미국식 수화인식 시스템을 설계하고 구현하였다. 이를 위해서 본 연구에서는 손등과 손가락에 장착되는 총 6개의 IMUs(Inertial Measurement Unit) 센서로 구성된 시스템을 구현하고 이를 이용한 실험을 수행하여 156개 특징이 수집된 데이터 추출을 통해서 총 28개 단어에 대한 미국식 수화 인식 방법을 제안하였다. 특히 LSTM (Long Short-Term Memory) 알고리즘을 사용하여 최대 99.89%의 정확도를 달성할 수 있었고 향후 청각 장애인들의 의사소통에 큰 도움이 될 것으로 예상된다.

한글 수화의 실시간 인식 시스템의 구현 (Implementation of Real-time Recognition System for Korean Sign Language)

  • 한영환
    • 한국콘텐츠학회논문지
    • /
    • 제5권4호
    • /
    • pp.85-93
    • /
    • 2005
  • 본 논문은 복잡한 배경에서 표식없는 손을 추적하여 한글 수화를 인식하는 시스템에 관한 것이다. 제안한 방법은 먼저 인접한 프레임간의 차 영상에 대하여 엔트로피를 측정한다. 큰 값을 갖는 영역에 대해 피부색에 가까운 분포를 갖는 색상 정보를 추출하여 배경 영상으로부터 손 영역만을 추출한다. 추출된 손 영역에 대해 윤곽선을 검출하고 개선된 무게중심 프로필(centroidal profile) 방법을 적용하여 수화를 인식한다. 6가지 모양의 수화를 사용한 실험결과 기존의 방법들과 달리 표식을 사용하지 않고도 복잡한 배경과 조명의 변화에서 안정적으로 수화를 인식할 수 있다. 또한 초당 15프레임 정도의 처리속도로 각 사람별로 95%이상, 각 수화별로 $90\sim100%$의 인식률을 얻을 수 있다.

  • PDF

말뭉치 자원 희소성에 따른 통계적 수지 신호 번역 문제의 해결 (Addressing Low-Resource Problems in Statistical Machine Translation of Manual Signals in Sign Language)

  • 박한철;김정호;박종철
    • 정보과학회 논문지
    • /
    • 제44권2호
    • /
    • pp.163-170
    • /
    • 2017
  • 통계적 기계 번역을 이용한 구어-수화 번역 연구가 활발해짐에도 불구하고 수화 말뭉치의 자원 희소성 문제는 해결되지 않고 있다. 본 연구는 수화 번역의 첫 번째 단계로써 통계적 기계 번역을 이용한 구어-수지 신호 번역에서 말뭉치 자원 희소성으로부터 기인하는 문제점들을 해결할 수 있는 세 가지 전처리 방법을 제안한다. 본 연구에서 제안하는 방법은 1) 구어 문장의 패러프레이징을 통한 말뭉치 확장 방법, 2) 구어 단어의 표제어화를 통한 개별 어휘 출현 빈도 증가 및 구어 표현의 번역 가능성을 향상시키는 방법, 그리고 3) 수지 표현으로 전사되지 않는 구어의 기능어 제거를 통한 구어-수지 표현 간 문장 성분을 일치시키는 방법이다. 서로 다른 특징을 지닌 영어-미국 수화 병렬 말뭉치들을 이용한 실험에서 각 방법론들이 단독으로 쓰일 때와 조합되어 함께 사용되었을 때 모두 말뭉치의 종류와 관계없이 번역 성능을 개선시킬 수 있다는 것을 확인할 수 있었다.

근전도와 관성센서가 내장된 암밴드를 이용한 실시간 수화 인식 (Real-time Sign Language Recognition Using an Armband with EMG and IMU Sensors)

  • 김성중;이한수;김종만;안순재;김영호
    • 재활복지공학회논문지
    • /
    • 제10권4호
    • /
    • pp.329-336
    • /
    • 2016
  • 수화를 사용하는 농아인은 의사소통의 제약에 의해 사회적인 불평등과 금전적 손실을 겪고 있다. 이러한 이유로 본 연구에서는 농아인의 원활한 의사소통을 위해 8개의 근전도와 1개의 관성센서로 구성된 암밴드 센서를 이용하여 실시간으로 미국 수화를 인식하는 알고리즘을 개발하였다. 개발된 알고리즘의 성능 검증은 11명의 피험자를 통해 진행하였으며, 패턴 분류기 학습은 훈련 데이터베이스 크기를 증가시키면서 진행하였다. 실험 결과, 개발된 패턴 인식 알고리즘은 동작 별 20개의 훈련 데이터베이스에서 97%이상의 정확도를 가졌으며, 30개의 훈련 데이터베이스에서 99%이상의 정확도를 보였다. 이를 통해 본 연구에서 제안하는 암밴드 센서를 이용한 수화 인식 알고리즘의 실용성과 우수성을 확인하였다.

DirectX 기반의 KSL 실행 플랫폼의 개발과 구현 (A Study on The Korean Sign Language platform base on DirectX)

  • 구자효;류윤규
    • 한국정보컨버전스학회논문지
    • /
    • 제1권1호
    • /
    • pp.25-32
    • /
    • 2008
  • 오늘날 디지털 기술과 멀티미디어 영상기법이 발전함에 따라 양질의 영상정보를 획득하기 쉽고 보다 사실적이고 직관적인 정보표현이 가능하여 시각적 욕구를 충족시켜왔다. 대중매체에서 애니메이션 캐릭터를 사용한 영상매체 활용이 지속적으로 늘어나고 있다. 이러한 애니메이션 캐릭터의 표현은 그래픽 기술의 발전으로 입체적이며, 사실적이고 부드러운 연출이 가능해졌다. 일반적으로 다양한 데이터 입력 장치를 이용하여 캐릭터의 섬세한 머리카락의 움직임까지도 표현할 수 있지만, 장애인들과 관련된 멀티미디어의 기술에 대한 연구는 매우 미흡하다. 본 논문에서는 MFC를 이용하여 DirectX 기반의 Korean Sign Language(KSL) 실행 플랫을 연구하였다.

  • PDF

모바일 수화 인식 시스템의 개선에 관한 연구 (Betterment of Mobile Sign Language Recognition System)

  • 박광현
    • 전자공학회논문지SC
    • /
    • 제43권4호
    • /
    • pp.1-10
    • /
    • 2006
  • 본 논문에서는 수화를 의사소통 수단으로 사용하는 청각 장애인이 일반인과 일상 대화를 할 수 있도록 도와주는 모바일 수화 인식 시스템을 다룬다. 개발된 시스템은 모자에 부착된 카메라와 손목에 착용한 가속도 센서를 통해 사용자의 수화 동작을 관찰하는데, 모바일 환경에서 실제 적용할 수 있도록 조명 변화에 둔감하고 실시간 처리가 가능하도록 개발하였다. 이를 위해 조명 변화에 강인한 손 영역 분할 방법을 제안하고 추출된 손 영역 정보를 히든 마르코프 모델의 입력으로 사용하여 연속적인 수화에 대해 99.07%의 단어 정확도를 얻었다.

머신러닝과 립 모션을 활용한 지화 번역 시스템 구현에 관한 연구 (A Study on Finger Language Translation System using Machine Learning and Leap Motion)

  • 손다은;고형민;신행용
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.552-554
    • /
    • 2019
  • 농아는 청각장애인과 언어장애인을 말하며 청각장애인과 언어장애인은 음성으로 의사소통하는 것에 어려움이 있기 때문에 수화나 구화 등을 이용하여 의사소통을 한다. 그러나 수화는 모든 사람들이 사용하는 통신 수단이 아니기 때문에 수화를 알지 못하는 사람과의 의사소통하는 데 있어 한계가 생길 수밖에 없다. 본 논문에서는 장애인과 비장애인이 어려움 없이 의사소통할 수 있는 수단으로 지화 번역 시스템을 제안하고 설계 및 구현하였다. 립 모션으로 지화를 인식하였고 인식률을 높이기 위해 머신 러닝 기술을 이용하여 지화 데이터를 스스로 학습시켰다. 구현 및 실험 결과를 통해 제안한 알고리즘 적용으로 인식률 개선이 이뤄졌음을 확인하였다.