• 제목/요약/키워드: Context Abstraction

검색결과 46건 처리시간 0.021초

초등학생의 미래 IT역량 강화를 위한 융합적 산출물 기반 소프트웨어 교육용 콘텐츠 개발 및 적용 (Development and Application of Educational Contents for Software Education based on the Integrative Production for Increasing the IT Competence of Elementary Students)

  • 서정현;김영식
    • 정보교육학회논문지
    • /
    • 제20권4호
    • /
    • pp.357-366
    • /
    • 2016
  • 컴퓨팅 사고 능력은 미래 사회 인재가 가져야 할 핵심 역량이다. 컴퓨팅 사고는 컴퓨팅의 관점에서 문제를 규정하고 그 문제의 해결방법을 탐색해 효율적인 해결절차를 강구하기 위해 추상화 단계를 거치고 추상적 개념의 자동화 수행을 위해 여러 가지 개념, 원리, 방법들을 이용하여 알고리즘화 하여 문제 해결의 가장 적합한 과정과 자원을 선택하고 조합하는 과정으로 초등학교 단계에서 적절한 교육용 콘텐츠의 적용이 필요하다. 본 연구에서는 융합적 산출물 기반의 소프트웨어 교육용 콘텐츠를 개발하고 적용함으로써 학습자의 창의적 인성 향상에 미치는 영향을 검증하였다. 연구 결과 융합적 산출물 기반의 소프트웨어 교육 콘텐츠를 이용한 교육이 학습자의 창의적 인성 향상에 긍정적인 영향을 미친 것을 확인하였고 초등 컴퓨팅 교육에 적용할 수 있는 방안을 제시하였다.

수학교육에서 계산적 사고(Computational Thinking)의 의미 및 연구 동향 탐색 (A study on investigation about the meaning and the research trend of computational thinking(CT) in mathematics education)

  • 신동조;고상숙
    • 한국수학교육학회지시리즈A:수학교육
    • /
    • 제58권4호
    • /
    • pp.483-505
    • /
    • 2019
  • 세계적으로 계산적 사고를 학교 교육과정에 통합하려는 움직임이 일고 있고, 수학교과는 이러한 움직임의 핵심이 되고 있다. 본 연구에서는 Jeannette Wing의 주장과 선행연구를 바탕으로 계산적 사고와 수학적 사고 간의 관계를 분석하였고 계산적 사고를 수학교과에 통합한 국내외 연구를 종합적으로 검토하였다.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF

신경망 기반 음성, 영상 및 문맥 통합 음성인식 (Speech Recognition by Integrating Audio, Visual and Contextual Features Based on Neural Networks)

  • 김명원;한문성;이순신;류정우
    • 전자공학회논문지CI
    • /
    • 제41권3호
    • /
    • pp.67-77
    • /
    • 2004
  • 최근 잡음환경에서 신뢰도 높은 음성인식을 위해 음성정보와 영상정보를 융합하는 방법이 활발히 연구되고 있다. 본 논문에서는 이절적인 정보의 융합에 적합한 신경망 모델을 기반으로 음성, 영상 및 문맥 정보 등 다양한 정보를 융합하여 잡음 환경에서 고려단어를 인식하는 음성인식 기법에 대하여 기술한다. 음성과 영상 특징을 이용한 이중 모드 신경망 BMNN(BiModal Neural Network)을 제안한다. BMM은 4개 층으로 이루어진 다층퍼셉트론의 구조를 가지며 각 층은 입력 특징의 추상화 기능을 수행한다. BMNN에서는 제 3층이 잡음에 의한 음성 정보의 손실을 보상하기 위하여 음성과 영상 특징을 통합하는 기능을 수행한다. 또한, 잡음환경에서 음성 인식률을 향상시키기 위해 사용자가 말한 단어들의 순차 패턴을 나타내는 문맥정보를 이용한 후처리 방법을 제안한다. 잡음환경에서 BMNN은 단순히 음성만을 사용한 것 보다 높은 성능을 보임으로써 그 타당성을 확인할 수 있을 뿐 아니라, 특히 문맥을 이용한 후처리를 하였을 경우 잡음 환경에서 90%이상의 인식률을 달성하였다 본 연구는 잡음환경에서 강인한 음성인식을 위해 다양한 추가 정보를 사용함으로써 성능을 향상시킬 수 있음을 제시한다.

AANet: Adjacency auxiliary network for salient object detection

  • Li, Xialu;Cui, Ziguan;Gan, Zongliang;Tang, Guijin;Liu, Feng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권10호
    • /
    • pp.3729-3749
    • /
    • 2021
  • At present, deep convolution network-based salient object detection (SOD) has achieved impressive performance. However, it is still a challenging problem to make full use of the multi-scale information of the extracted features and which appropriate feature fusion method is adopted to process feature mapping. In this paper, we propose a new adjacency auxiliary network (AANet) based on multi-scale feature fusion for SOD. Firstly, we design the parallel connection feature enhancement module (PFEM) for each layer of feature extraction, which improves the feature density by connecting different dilated convolution branches in parallel, and add channel attention flow to fully extract the context information of features. Then the adjacent layer features with close degree of abstraction but different characteristic properties are fused through the adjacent auxiliary module (AAM) to eliminate the ambiguity and noise of the features. Besides, in order to refine the features effectively to get more accurate object boundaries, we design adjacency decoder (AAM_D) based on adjacency auxiliary module (AAM), which concatenates the features of adjacent layers, extracts their spatial attention, and then combines them with the output of AAM. The outputs of AAM_D features with semantic information and spatial detail obtained from each feature are used as salient prediction maps for multi-level feature joint supervising. Experiment results on six benchmark SOD datasets demonstrate that the proposed method outperforms similar previous methods.

대화 참여자 결정을 통한 Character-net의 개선 (Improvement of Character-net via Detection of Conversation Participant)

  • 김원택;박승보;조근식
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권10호
    • /
    • pp.241-249
    • /
    • 2009
  • 동영상 검색이나 축약과 같은 동영상 분석을 위해 동영상 어노테이션 기술이나 동영상 정보 표현에 대한 다양한 연구가 있어왔다. 이를 위해 본 논문은 대화 참여자 결점을 위한 영상적 요소와 이러한 요소를 이용하여 Character-net 표현을 개선하는 방법을 제안한다. 기존 Character-net이 자막이 뜨는 시간에 나타나는 등장인물들만을 대화참여자로 고려하므로 일부의 청자를 제외시키는 문제점이 있다. 대화 참여자는 대화상황 파악의 극히 중요한 요소로 동영상 검색 시에 기준이 될 수 있으며 동영상의 이야기 전개를 이끌어 나간다. 대화 참여자를 결정하기 위한 영상적 요소에는 자막의 유무, 장면, 인물 등장순서, 시선방향, 패턴, 입의 움직임 등이 있다. 본 논문에서는 이러한 영상적 요소에 근거하여 대화 참여자를 판단하고 동영상 표현방법인 Character-net을 개선하고자 한다. 제안한 여러 요소들이 결합되고 일정한 조건이 만족되었을 때 대화참여자를 정확히 검출할 수 있다. 따라서 본 논문에서는 대화참여자를 결정하기 위한 영상적 요소들을 제안하고 이를 통해 Character-net의 표현성능을 개선하고 실험을 통하여 제안된 방법론이 대화 참여자 판단의 정확성과 Character-net의 표현성능을 제고함을 증명하였다.