• 제목/요약/키워드: Human Attention

검색결과 1,547건 처리시간 0.024초

영화클립을 이용한 눈깜빡임과 시각적 주의력과의 상관성 연구 (The Investigation of the Relationship between Eye Blink and Visual Attention with Video Clip)

  • 김성경;강민;강건주;박수지;신영석;장동표
    • 대한의용생체공학회:의공학회지
    • /
    • 제35권4호
    • /
    • pp.99-104
    • /
    • 2014
  • Generally, human eye blinks are closely associated with the cognitive state or visual attention such as attentional requirements on visual stimuli. These previous studies have reported that eye blinks are related to explicit visual attention using blink rate, pattern and blink timing across subjects. However, these results have been obtained in a well-controlled experimental settings. So, it would prove difficult to investigate human's natural response in a continuous and realistic situation. In our study, we measured the eye blink intervals while participants viewed a movie clip. And we analyzed the blink interval data for relationship between visual attention and eye blink intervals. 24 participants took part in two experimental sessions, first session to measure the IEBI while viewing the movie clip and second session to conduct a memory performance test using a self-questionnaire, which were spaced 3 weeks apart. The results indicate significantly higher memory performance at long IEBI period than short IEBI period while watching a movie clip(t = 3.257, df = 17, p < 0.005, 2-tailed). In addition, memory performance score significantly correlated with the IEBI value(spearman's rho = 0.40, N = 36, p < 0.01, 2-tailed). Our results suggest that IEBI is used to measure or assess visual attention while wiewing the movie that it is capable of simulating aspects of real-life experiences by visual attention. Thus, we expect IEBI to be used to measure or assess our visual attention, cognition, further emotion about not only movies, advertisements and other cultural contents but also cognitive science.

인간의 상향식 시각적 주의 특성에 바탕을 둔 현저한 영역 탐지 (Detecting Salient Regions based on Bottom-up Human Visual Attention Characteristic)

  • 최경주;이일병
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권2호
    • /
    • pp.189-202
    • /
    • 2004
  • 본 논문에서는 영상 입력 장치로 입력되는 영상 내의 수많은 정보 중에서 지각적으로 중요하다고 여겨지는 현저한(salient) 영역만을 탐지해내는 새로운 방법을 제안한다. 제안하는 방법은 인간이 가지고 있는 시각적 주의 기능에 기본 바탕을 두고 있으며, 영상을 구성하고 있는 정보의 특징에 기반을 두고 있다. 가장 먼저 인간의 시각적 주의 기능에 영향을 미친다고 알려져 있는 몇 가지 특징들이 입력되는 영상의 모든 영역에 걸쳐 추출되어 각각의 특징에 해당되는 특징지도들로 형성된다. 이렇게 형성된 각각의 특징지도들을 구성하고 있는 특징 값들은 이들 각각의 국부적인 경쟁력 특성에 의하여 영상의 각 영역에서의 중요도를 나타내는 값으로 변환되어 중요도지도를 형성하게 된다. 이러한 중요도지도들은 모두 통합되어 하나의 현저함지도를 생성하게 된다. 현저함지도는 영상 내 각 장소의 현저함 정도를 미리 계산된 특징들의 공간적 중요도 측정치에 따른 스칼라 값으로 표시함으로써 영상 내에서 가장 현저한 영역을 찾을 수 있도록 가이드 한다. 제안하는 방법에 의해 시스템을 구성하여 실험한 결과, 인간이 중요하다고 여겨지는 주요 영역을 만족스럽게 탐지해 냄을 알 수 있었다.

인간의 색상처리방식에 기반한 교통 표지판 영역 추출 시스템 (Traffic Sign Area Detection System Based on Color Processing Mechanism of Human)

  • 최경주;박민철
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.63-72
    • /
    • 2007
  • 교통 표지판은 먼거리에서도 교통 표지라는 것을 쉽게 판별하여 단시간 내에 그 내용을 파악할 수 있어야 한다. 교통 표지판의 도로의 안전 주행에 있어 아주 중요한 객체로 도로 상의 다른 그 무엇보다도 먼저 인간의 시선을 잡아끌어야 한다. 이에 본 논문에서는 인간의 도로 상의 어떤 물체보다도 교통 표지판에 가장 먼저 시선을 집중한다는 가정하에 주의 모듈(Attention Module)을 사용하여 교통 표지판 영역을 추출하는 시스템을 제안하고자 한다. 특히 본 논문에서는 인간의 대상(object)인식과정, 특히 색상처리과정에서 어떠한 특징들이 사용되어지는지를 기존의 정신물리학적, 생리학적 실험결과를 통해 분석하였고, 이 분석결과를 통해 얻어진 특징들을 사용하여 교통 표지판 영역을 추출하였다. 실제 도로위에서 찍은 실영상을 대상으로 실험하였으며, 실험을 통하여 평균 97.8%의 탐지율을 보임을 확인하였다.

Attention-based Sequence-to-Sequence 모델을 이용한 한국어 어체 변환 (Korean Text Style Transfer Using Attention-based Sequence-to-Sequence Model)

  • 홍태석;허광호;안휘진;강상우;서정연
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.567-569
    • /
    • 2018
  • 한국어의 경어체는 종결어미에 따라 구분하고, 서로 다른 경어체는 각각 고유한 경어 강도가 있다. 경어체 간의 어체 변환은 규칙기반으로 진행되어 왔다. 본 논문은 어체 변환을 위한 규칙 정의의 번거로움을 줄이고 어체 변환 데이터만을 사용한 심층 학습 기반의 어체 변환 방법을 제안한다. 본 연구는 '해요체-합쇼체' 쌍의 병렬 데이터를 이용하여 Attention-based Sequence-to-Sequence 모델을 바탕으로 한 어체 변환 모델을 학습하였다. 해당 모델을 학습하고 실험하였을 때, 정확도 91%의 우수한 성과를 얻을 수 있었다.

  • PDF

지능형 화재 학습 및 탐지 시스템 (An Intelligent Fire Leaning and Detection System)

  • 최경주
    • 한국멀티미디어학회논문지
    • /
    • 제18권3호
    • /
    • pp.359-367
    • /
    • 2015
  • In this paper, we propose intelligent fire learning and detection system using hybrid visual attention mechanism of human. Proposed fire learning system generates leaned data by learning process of fire and smoke images. The features used as learning feature are selected among many features which are extracted based on bottom-up visual attention mechanism of human, and these features are modified as learned data by calculating average and standard variation of them. Proposed fire detection system uses learned data which is generated in fire learning system and features of input image to detect fire.

영아의 공동주의와 초기 언어발달의 관계 (Relationships Between Joint Attention and Language Development in Infancy)

  • 이혜련;이귀옥;이영주
    • 아동학회지
    • /
    • 제28권5호
    • /
    • pp.297-307
    • /
    • 2007
  • This study investigated relationships between engagement in joint attention and the early language development in infancy. Subjects were 12 infants and their mothers. At 20 and 25 months of age, each child's spontaneous natural speech during interaction with his/her caregiver was videotaped for about 30 minutes. The EJA(Episodes of joint attention) focus between mother and child were identified and coded by Tomasello and Todd's(1983) and Bakeman and Adamson's(1984) including person engagement, object engagement, looking engagement, passive joint attention, coordinated joint attention. Results showed that a significant difference in infant's language development between within and outside EJA at 20 and 25 months of age; that is, during periods of EJA children talked more inside than outside EJA.

  • PDF

Visible Distortion Predictors Based on Visual Attention in Color Images

  • Cho, Sang-Gyu;Hwang, Jae-Jeong;Kwak, Nae-Joung
    • Journal of information and communication convergence engineering
    • /
    • 제10권3호
    • /
    • pp.300-306
    • /
    • 2012
  • An image attention model and its application to image quality assessment are discussed in this paper. The attention model is based on rarity quantification, which is related to self-information to attract the attention in an image. It is relatively simpler than the others but results in taking more consideration of global contrasts between a pixel and the whole image. The visual attention model is used to develop a local distortion predictor, named color visual differences predictor (CVDP), in color images in order to effectively detect luminance and color distortions.

입력 문장 Noising과 Attention 기반 비교사 한국어 문체 변환 (Attention-based Unsupervised Style Transfer by Noising Input Sentences)

  • 노형종;이연수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.434-439
    • /
    • 2018
  • 문체 변환 시스템을 학습하는 데 있어서 가장 큰 어려움 중 하나는 병렬 말뭉치가 부족하다는 것이다. 최근 대량의 비병렬 말뭉치만으로 문체 변환 문제를 해결하려는 많은 연구들이 발표되었지만, 아직까지도 원 문장의 정보 보존(Content preservation)과 문체 변환(Style transfer) 모두를 이루는 것이 쉽지 않은 상태이다. 특히 비교사 학습의 특성상 문체 변환과 동시에 정보를 보존하는 것이 매우 어렵다. Attention 기반의 Seq2seq 네트워크를 이용할 경우에는 과도하게 원문의 정보가 보존되어 문체 변환 능력이 떨어지기도 한다. 그리고 OOV(Out-Of-Vocabulary) 문제 또한 존재한다. 본 논문에서는 Attention 기반의 Seq2seq 네트워크를 이용하여 어절 단위의 정보 보존력을 최대한 높이면서도, 입력 문장에 효과적으로 Noise를 넣어 문체 변환 성능을 저해하는 과도한 정보 보존 현상을 막고 문체의 특성을 나타내는 어절들이 잘 변환되도록 할 뿐 아니라 OOV 문제도 줄일 수 있는 방법을 제안한다. 우리는 비교 실험을 통해 본 논문에서 제안한 방법들이 한국어 문장뿐 아니라 영어 문장에 대해서도 state-of-the-art 시스템들에 비해 향상된 성능을 보여준다는 사실을 확인하였다.

  • PDF

Self-Attention 기반의 문장 임베딩을 이용한 효과적인 문장 유사도 기법 기반의 FAQ 시스템 (An Effective Sentence Similarity Measure Method Based FAQ System Using Self-Attentive Sentence Embedding)

  • 김보성;김주애;이정엄;김선아;고영중;서정연
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.361-363
    • /
    • 2018
  • FAQ 시스템은 주어진 질문과 가장 유사한 질의를 찾아 이에 대한 답을 제공하는 시스템이다. 질의 간의 유사도를 측정하기 위해 문장을 벡터로 표현하며 일반적으로 TFIDF, Okapi BM25와 같은 방법으로 계산한 단어 가중치 벡터를 이용하여 문장을 표현한다. 하지만 단어 가중치 벡터는 어휘적 정보를 표현하는데 유용한 반면 단어의 의미적인(semantic) 정보는 표현하기 어렵다. 본 논문에서는 이를 보완하고자 딥러닝을 이용한 문장 임베딩을 구축하고 단어 가중치 벡터와 문장 임베딩을 조합한 문장 유사도 계산 모델을 제안한다. 또한 문장 임베딩 구현 시 self-attention 기법을 적용하여 문장 내 중요한 부분에 가중치를 주었다. 실험 결과 제안하는 유사도 계산 모델은 비교 모델에 비해 모두 높은 성능을 보였고 self-attention을 적용한 실험에서는 추가적인 성능 향상이 있었다.

  • PDF

Multi-Head Attention 방법을 적용한 문자 기반의 다국어 개체명 인식 (Character-Aware Neural Networks with Multi-Head Attention Mechanism for Multilingual Named Entity Recognition)

  • 천민아;김창현;박호민;김재훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.167-171
    • /
    • 2018
  • 개체명 인식은 문서에서 인명, 지명, 기관명 등의 고유한 의미를 나타내는 단위인 개체명을 추출하고, 추출된 개체명의 범주를 결정하는 작업이다. 최근 개체명 인식과 관련된 연구는 입력 데이터의 앞, 뒤를 고려하기 위한 Bi-RNNs와 출력 데이터 간의 전이 확률을 이용한 CRFs를 결합한 방식을 기반으로 다양한 변형의 심층학습 방법론이 제안되고 있다. 그러나 대부분의 연구는 입력 단위를 단어나 형태소로 사용하고 있으며, 성능 향상을 위해 띄어쓰기 정보, 개체명 사전 자질, 품사 분포 정보 등 다양한 정보를 필요로 한다는 어려움이 있다. 본 논문은 기본적인 학습 말뭉치에서 얻을 수 있는 문자 기반의 입력 정보와 Multi-Head Attention을 추가한 Bi-GRU/CRFs을 이용한 다국어 개체명 인식 방법을 제안한다. 한국어, 일본어, 중국어, 영어에 제안 모델을 적용한 결과 한국어와 일본어에서는 우수한 성능(한국어 $F_1$ 84.84%, 일본어 $F_1$ 89.56%)을 보였다. 영어에서는 $F_1$ 80.83%의 성능을 보였으며, 중국어는 $F_1$ 21.05%로 가장 낮은 성능을 보였다.

  • PDF