• Title/Summary/Keyword: semantic gap

Search Result 71, Processing Time 0.177 seconds

Ensemble UNet 3+ for Medical Image Segmentation

  • JongJin, Park
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권1호
    • /
    • pp.269-274
    • /
    • 2023
  • In this paper, we proposed a new UNet 3+ model for medical image segmentation. The proposed ensemble(E) UNet 3+ model consists of UNet 3+s of varying depths into one unified architecture. UNet 3+s of varying depths have same encoder, but have their own decoders. They can bridge semantic gap between encoder and decoder nodes of UNet 3+. Deep supervision was used for learning on a total of 8 nodes of the E-UNet 3+ to improve performance. The proposed E-UNet 3+ model shows better segmentation results than those of the UNet 3+. As a result of the simulation, the E-UNet 3+ model using deep supervision was the best with loss function values of 0.8904 and 0.8562 for training and validation data. For the test data, the UNet 3+ model using deep supervision was the best with a value of 0.7406. Qualitative comparison of the simulation results shows the results of the proposed model are better than those of existing UNet 3+.

NMF 기반의 용어 가중치 재산정을 이용한 문서군집 (Document Clustering using Term reweighting based on NMF)

  • 이주홍;박선
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.11-18
    • /
    • 2008
  • 문서군집은 정보검색의 많은 응용분야에 사용되는 중요한 문서 분석 방법이다. 본 논문은 비음수 행렬 분해(NMF, non-negative matrix factorization)를 기반한 용어 가중치 재산정 방법을 이용하여서 사용자의 요구에 적합한 군집결과를 얻도록 하는 새로운 군집모델을 제안한다. 제안된 모델은 군집형태에 대한 사용자 요구와 기계에 의한 군집 형태의 차이를 최소화하기 위하여 사용자 피드백에 의한 가중치가 재계산된 용어를 이용한다. 또한 제안방법은 용어의 가중치 재계산과 문서군집에 문서집합의 내부구조를 나타내는 의미특징행렬과 의미변수행렬 이용하여 문서군집의 성능을 높일 수 있다. 실험결과 제안방법을 적용한 문서군집방법이 적용하지 않은 문서군 방법에 비하여 좋은 성능을 보인다.

  • PDF

다중점 적합성 피드백방법을 이용한 영역기반 이미지 유사성 검색 (Region Based Image Similarity Search using Multi-point Relevance Feedback)

  • 김덕환;이주홍;송재원
    • 정보처리학회논문지D
    • /
    • 제13D권7호
    • /
    • pp.857-866
    • /
    • 2006
  • 질의 이미지의 시각적 특징이 사용자의 상위 수준 개념을 잘 표현하지 못하기 때문에 이미지 검색 시스템의 성능은 보통 매우 낮다. 의미적으로 유사한 이미지들이 매우 다른 시각적 특징을 보일 수도 있으며 따라서 여러 개의 군집에 분산될 수 있다. 본 논문에서는 영역기반 이미지 검색과 군집-합병을 이용한 새로운 적합성 피드백 방법을 결합한 내용기반 이미지 검색 방법을 제안한다. 주요 목표는 의미적 차이를 줄이기 위해 의미적으로 관련된 군집들을 찾는 것이다. 제안된 방법은 영역기반 군집 과정과 군집-합병 과정으로 이루어진다. 적합한 이미지들의 모든 분할된 영역들을 의미적으로 관련된 계층적인 군집으로 구성한다. 잠재된 군집의 개수를 결정하고 근접한 군집들을 합병한 후 최종 군집의 대표점들로 다중 질의를 표현한다. 군집-합병 과정에서 군집의 개수를 찾고 고차원에서 특이점 문제를 해결하기 위하여 호텔링의 $T^2$ 대신에 v개의 주성분을 이용하는 $T_v^2$를 적용하였으며 $T^2$의 성능과 $T_v^2$의 성능의 차이가 없음을 보인다. 실험 결과는 제안된 방법이 내용기반 이미지 검색 시스템의 성능을 개선하는 데 효율적임을 보여준다.

가변적인 길이의 특성 정보를 지원하는 특성 가중치 조정 기법 (A Feature Re-weighting Approach for the Non-Metric Feature Space)

  • ;김상희;박호현;이석룡;정진완
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권4호
    • /
    • pp.372-383
    • /
    • 2006
  • 이미지 데이타베이스 분야에 대한 다양한 기법들 가운데, 내용 기반 영상 검색 기법 (Content Based Image Retrieval)은 대용량의 영상을 효율적으로 검색하고 탐색할 수 있도록 한다. 기존의 내용 기반 영상 검색 시스템은 사용자가 입력한 질의 이미지에서 낮은 레벨의 특성 (low-level feature)을 추출하고 그에 기반하여 데이타베이스로부터 유사한 영상을 검색한다. 하지만 컴퓨터에서 사용하는 낮은 레벨의 특성은 실제 인간이 영상을 인식하는 방법과 다르게 영상을 인식한다는 단점이 있다. 이러한 단점을 보완하기 위하여 각 특성에 대한 가중치를 적합성 피드백 (relevance feedback)을 통하여 재조정하는 기법이 개발되었다. 기존의 특성 가중치 조정 (feature re-weighting) 기법은 모든 영상에 대하여 특성은 항상 고정된 길이의 벡터 데이타로 표현된다고 가정한다, 이러한 가정을 전제로 하여 기존의 기법은 특성 표현 (feature representation)의 각 부분을 n 차원 공간의 각 축에 할당한다. 하지만 특성 표현 기법의 발전에 따라 가변적인 길이의 벡터로 표현되는 특성이 출현하였으며 이로 인하여 기존의 제한된 길이의 벡터로 표현되는 특성 표현에 기반한 특성 가중치 조정 기법의 유효성은 감소하게 되었다. 본 논문에서는 가변적인 크기의 벡터로 표현되는 특성에 대해서도 특성 가중치를 효과적으로 조정할 수 있는 기법을 제안한다. 본 기법은 특성에 기반하여 계산된 질의 영상과 데이타베이스 내부의 영상간의 거리와 양방향 신뢰구간을 이용하여 특성 가중치를 조정한다. 이 때 각 특성의 거리 계산 방법에 대해서는 제한을 두지 않는다. 또한 각 특성의 표현에 있어서도 고정적인 크기뿐만이 아니라 가변적인 크기의 데이타 역시 사용할 수 있도록 한다. 본 논문에서는 실험을 통하여 제안한 기법의 유효성을 입증하였으며, 다른 연구 결과와의 비교를 통하여 제안한 기법의 성능이 보다 우수함을 보였다.

위성영상 검색에서 사용자 관심영역을 이용한 적합성 피드백 (Relevance Feedback using Region-of-interest in Retrieval of Satellite Images)

  • 김성진;정진완;이석룡;김덕환
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제36권6호
    • /
    • pp.434-445
    • /
    • 2009
  • 내용 기반 영상 검색(content based image retrieval)은 영상 자체의 정보를 이용하여 유사 영상을 검색하는 기법이다. 하지만 멀티미디어 데이터는 텍스트 데이터와 달리 얻을 수 있는 데이터가 정확하지 않고 또한 시스템에서 표현되는 데이터의 저차원(low-level)의 표현법과 사용자가 인식하는 고차원(high-level)의 개념(concept)은 상당한 차이를 나타내게 된다. 즉 시스템 상에서 벡터들로 표현된 영상 데이터들이 벡터스페이스 상에서는 가깝지만 실제 사용자는 유사하지 않다고 인식하는 문제점이 발생한다. 이를 의미적 간극(semantic-gap) 문제라고 부른다. 이런 의미적 간극 문제로 인해 영상검색 결과는 좋지 않은 성능을 보이게 된다. 이를 해결하기 위해 사용자의 피드백 정보를 이용하여 질의를 수정하는 적합성 피드백 기법이 널리 사용되고 있다. 하지만 기존의 적합성 피드백은 사용자의 관심영역(region-of-interest, 이하 ROI)를 고려하지 않아 적합한(relevant) 영역의 모든 영역들이 새로운 질의 점을 계산하는 과정에서 사용된다. 시스템은 그 스스로 사용자 관심영역을 알지 못하기 때문에 적합성 피드백을 영상수준(image-level)으로 진행하기 때문이다. 이 논문에서는 복잡한 위성영상 영역 검색에서 관심영역을 사용자가 직접 선택하도록 유도하여 더욱 정확한 질의 점을 계산하여 정확도를 높이는 사용자 관심영역 적합성 피드백 방법을 제시한다. 또한 사용자가 선택하지 않은 부정확한 영상 정보를 이용하여 정확도를 향상시키는 프루닝 기법도 함께 제시한다. 실험을 통하여 사용자 관심영역 적합성 피드백의 우수성과 함께 제안한 프루닝 기법의 효율성도 함께 보여준다.

언어 네트워크 분석을 통한 현대자동차의 기업 문화마케팅 변화 연구 (Semantic Network Analysis of Trends in Hyundai Motor's Corporate Cultural Marketing)

  • 김정현;이진우
    • 예술경영연구
    • /
    • 제51호
    • /
    • pp.75-102
    • /
    • 2019
  • 본 연구는 언어 네트워크 분석 기법을 이용하여 현대자동차의 문화마케팅 유형과 변화를 분석하고 국내 문화마케팅의 발전 양상을 제시하고자 하였다. 기존 연구는 기업 문화마케팅의 개념 규정과 유형화, 문화마케팅의 영향 및 성과 등을 살펴보았지만, 시간의 흐름에 따른 기업 문화마케팅의 변화는 주목하지 않았다. 이에, 본고는 다양한 형태의 문화마케팅을 시행해온 현대자동차를 대상으로, 현대자동차의 문화마케팅이 보도된 2001년부터 2018년까지를 시간적 범주로 설정하고 국내 일간지 기사 2,315건을 분석하였다. 18년의 시간을 4개 시기로 분류하고, 시기마다 빈출단어를 추출하여 한국어 언어 분석 프로그램 텍스톰(Textom)과 언어 네트워크 분석 프로그램 유씨넷(UCINET)으로 분석하였다. 연구 결과, 현대자동차는 문화마케팅을 판매와 영업 성과를 향상하기 위한 수단으로 활용함과 동시에 기업과 브랜드 정체성을 차별화하기 위한 전략으로 발전시키고 있었다. 2000년대 초반에는 '고객', '위대한 회화의 시대: 렘브란트와 17세기 네덜란드 회화전', '공연'이 빈도수가 높은 단어로 추출되었다. 현대자동차가 공연 중심의 문화 행사를 고객 대상으로 개최하여, 특정 소비자 그룹에 혜택을 제공하는 방식으로 시작하였다. 2000년대 후반에 상위 노출된 단어는 '예술의 전당', '서울시립교향악단'으로, 인지도 높은 문화예술기관의 주요 문화 행사에 후원하였다. 2010년대 초반에는 기존고객 중심에서 잠재 고객으로 대상을 넓히고, 문화마케팅을 아우르는 브랜드와 공간('브릴리언트'와 '현대아트홀')을 선보였다. 2010년대 중후반에는 노출 빈도가 높은 '브랜드'와 '글로벌'에서 보여주듯, 문화마케팅의 초점이 고객에서 브랜드 구축으로, 국내에서 글로벌로 확장되고 있다.

PC-SAN: Pretraining-Based Contextual Self-Attention Model for Topic Essay Generation

  • Lin, Fuqiang;Ma, Xingkong;Chen, Yaofeng;Zhou, Jiajun;Liu, Bo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3168-3186
    • /
    • 2020
  • Automatic topic essay generation (TEG) is a controllable text generation task that aims to generate informative, diverse, and topic-consistent essays based on multiple topics. To make the generated essays of high quality, a reasonable method should consider both diversity and topic-consistency. Another essential issue is the intrinsic link of the topics, which contributes to making the essays closely surround the semantics of provided topics. However, it remains challenging for TEG to fill the semantic gap between source topic words and target output, and a more powerful model is needed to capture the semantics of given topics. To this end, we propose a pretraining-based contextual self-attention (PC-SAN) model that is built upon the seq2seq framework. For the encoder of our model, we employ a dynamic weight sum of layers from BERT to fully utilize the semantics of topics, which is of great help to fill the gap and improve the quality of the generated essays. In the decoding phase, we also transform the target-side contextual history information into the query layers to alleviate the lack of context in typical self-attention networks (SANs). Experimental results on large-scale paragraph-level Chinese corpora verify that our model is capable of generating diverse, topic-consistent text and essentially makes improvements as compare to strong baselines. Furthermore, extensive analysis validates the effectiveness of contextual embeddings from BERT and contextual history information in SANs.

실시간 뇌파반응을 이용한 주제관련 영상물 쇼트 자동추출기법 개발연구 (Automatic Extraction Techniques of Topic-relevant Visual Shots Using Realtime Brainwave Responses)

  • 김용호;김현희
    • 한국멀티미디어학회논문지
    • /
    • 제19권8호
    • /
    • pp.1260-1274
    • /
    • 2016
  • To obtain good summarization algorithms, we need first understand how people summarize videos. 'Semantic gap' refers to the gap between semantics implied in video summarization algorithms and what people actually infer from watching videos. We hypothesized that ERP responses to real time videos will show either N400 effects to topic-irrelevant shots in the 300∼500ms time-range after stimulus on-set or P600 effects to topic-relevant shots in the 500∼700ms time range. We recruited 32 participants in the EEG experiment, asking them to focus on the topic of short videos and to memorize relevant shots to the topic of the video. After analysing real time videos based on the participants' rating information, we obtained the following t-test result, showing N400 effects on PF1, F7, F3, C3, Cz, T7, and FT7 positions on the left and central hemisphere, and P600 effects on PF1, C3, Cz, and FCz on the left and central hemisphere and C4, FC4, P8, and TP8 on the right. A further 3-way MANOVA test with repeated measures of topic-relevance, hemisphere, and electrode positions showed significant interaction effects, implying that the left hemisphere at central, frontal, and pre-frontal positions were sensitive in detecting topic-relevant shots while watching real time videos.

Symbiotic Dynamic Memory Balancing for Virtual Machines in Smart TV Systems

  • Kim, Junghoon;Kim, Taehun;Min, Changwoo;Jun, Hyung Kook;Lee, Soo Hyung;Kim, Won-Tae;Eom, Young Ik
    • ETRI Journal
    • /
    • 제36권5호
    • /
    • pp.741-751
    • /
    • 2014
  • Smart TV is expected to bring cloud services based on virtualization technologies to the home environment with hardware and software support. Although most physical resources can be shared among virtual machines (VMs) using a time sharing approach, allocating the proper amount of memory to VMs is still challenging. In this paper, we propose a novel mechanism to dynamically balance the memory allocation among VMs in virtualized Smart TV systems. In contrast to previous studies, where a virtual machine monitor (VMM) is solely responsible for estimating the working set size, our mechanism is symbiotic. Each VM periodically reports its memory usage pattern to the VMM. The VMM then predicts the future memory demand of each VM and rebalances the memory allocation among the VMs when necessary. Experimental results show that our mechanism improves performance by up to 18.28 times and reduces expensive memory swapping by up to 99.73% with negligible overheads (0.05% on average).

Enhanced Cloud Service Discovery for Naïve users with Ontology based Representation

  • Viji Rajendran, V;Swamynathan, S
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권1호
    • /
    • pp.38-57
    • /
    • 2016
  • Service discovery is one of the major challenges in cloud computing environment with a large number of service providers and heterogeneous services. Non-uniform naming conventions, varied types and features of services make cloud service discovery a grueling problem. With the proliferation of cloud services, it has been laborious to find services, especially from Internet-based service repositories. To address this issue, services are crawled and clustered according to their similarity. The clustered services are maintained as a catalogue in which the data published on the cloud provider's website are stored in a standard format. As there is no standard specification and a description language for cloud services, new efficient and intelligent mechanisms to discover cloud services are strongly required and desired. This paper also proposes a key-value representation to describe cloud services in a formal way and to facilitate matching between offered services and demand. Since naïve users prefer to have a query in natural language, semantic approaches are used to close the gap between the ambiguous user requirements and the service specifications. Experimental evaluation measured in terms of precision and recall of retrieved services shows that the proposed approach outperforms existing methods.