• Title/Summary/Keyword: 텍스트 이미지

Search Result 734, Processing Time 0.029 seconds

Development of Hand-drawn Clothing Matching System (손그림을 통한 의류검색 시스템)

  • Lim, Ho-Kyun;Moon, Mikyeong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.553-554
    • /
    • 2021
  • 온라인 쇼핑 시장의 규모나 나날이 증가하고 있는 추세이다. 이러한 시장 경제 속에서 사용자들을 유지하기 위해 저마다 다른 독자적이 서비스를 제공하고 있으며 서비스 경쟁의 노력 중 하나로 이미지 검색을 사용하는 사이트가 늘어나고 있다. 하지만 기존의 이미지 검색을 의류 쇼핑몰에 그대로 적용할 경우 사용자가 검색하고자 하는 의류가 해당 사이트에 존재하지 않거나 검색을 위한 이미지를 소유하고 있지 않은 경우 기존 텍스트 형식의 검색 시스템을 그대로 이용해야 하는 등의 문제들이 존재한다. 이에 본 논문에서는 사용자가 직접 그린 그림을 이용한 '손그림 의류 검색 시스템'을 제안하였다. 본 시스템을 기존의 텍스트와 이미지에 국한되어 있던 검색 경험과 별개로 그림으로 검색을 시도함으로써 사용자에게 폭넓은 검색 경험을 제공할 수 있을 것으로 기대한다.

  • PDF

Data Preprocessing Algorithm for Developing Voice Recognition-based Shopping Applications (음성 인식 기반 쇼핑 어플리케이션 개발을 위한 데이터 전처리 알고리즘)

  • Gu, Yeonwoo;Park, Eunbi;Choo, Seoyeon;Kim, Yujeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.1006-1008
    • /
    • 2022
  • 시각장애인이 이미지로 구성된 온라인 쇼핑몰에서 정보를 얻기 어려운 문제를 해결하기 위해, 본 논문에서는 이미지 텍스트 변환 알고리즘 연구를 진행하였다. 해당 연구를 기반으로 개발한 어플리케이션 <들리네>는 쇼핑몰 홈페이지로부터 정보를 수집하고, 이미지 속 텍스트를 추출하여 전처리 및 음성 변환 과정을 거쳐 사용자에게 제공한다. <들리네>는 사용자가 이미지 정보로 이루어진 온라인 쇼핑몰에서 명확한 정보를 편리하게 얻는 것을 목표로 한다.

Design and Implementation of Image Gallery using Text Embedded JPEG (Text Embedded JPEG를 이용한 Image Gallery의 설계 및 구현)

  • 천시영;곽미라;조동섭
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.05b
    • /
    • pp.724-727
    • /
    • 2003
  • 현재 웹상의 이미지 갤러리에는 이미지와 함께 제목이나 설명이 포함되는 경우가 많다. 본 논문에서는 갤러리의 검색, 정렬 등의 기능을 강화하고 이미지와 정보의 통합을 위해서 JPEG 이미지의 헤더를 확장하여 이미지의 저작자, 만든 날짜, 설명, 파일크기 등의 텍스트 정보를 내장한 Text Embedded JPEG를 고안하였다. 이 Text Embedded JPEG를 이용한 웹 갤러리에서 이용자는 이미지에 대한 보다 자세한 정보를 볼 수 있고 이 각각의 정보들에 따라 정렬할 수도 있고 이미지 정보를 변경할 수도 있도록 설계하였다.

  • PDF

Text Extraction and Skew Detection in Natural Scenes (자연 영상에서의 텍스트 추출 및 기울기 추출)

  • 최규담;김성동;최기호
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11a
    • /
    • pp.346-349
    • /
    • 2003
  • 본 논문은 실내외에서 얻어진 자연 영상으로부터 텍스트를 추출하는 방법과 추출되어진 텍스트가 기울어져 있을 경우 기울기 각도를 추정하고 보정하는 방법을 제안한다 이런 모든 과정은 4단계로 수행된다. 명도 이미지를 대상으로 첫째 자연 영상에서 에지 검출 처리를 위한 전처리 단계와 둘째 에지 검출과 세선화를 통한 잡음영상 및 선 제거, 텍스트 특징을 이용한 후보영역 검출단계로 이루어지고 셋째 그 텍스트 후보영역 안에서 이진화를 수행하고 불필요한 비텍스트 연결 요소를 추려내어 제거 함으로써 텍스트를 추출한다. 마지막은 후처리로써 추출된 텍스트의 기울기 각도를 추정하고 추정 된 각도만큼 회전함으로써 기울어진 텍스트를 보정한다 본 연구는 다양한 자연 영상을 대상으로 실험한 결과, 본 논문의 유용성과 정확한 텍스트추출을 확인하였다.

  • PDF

Shape-based Leaf Image Indexing (모양 기반의 식물 잎 이미지 인덱싱)

  • 남윤영;손정민;황인준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10c
    • /
    • pp.493-495
    • /
    • 2004
  • 최근, 디지털 카메라와 디지털 캠코더처럼 디지털 장비가 대중화됨에 따라, 이미지 데이터가 급증하게 되었다. 이와 함께, 이미지 검색에 대한 요구도 증가하게 되었으며, 단순한 텍스트 검색이 아닌 이미지의 특징에 기반한 검색이 요구되고 있다. 특징 기반의 검색은 색상, 질감, 모양 등과 같은 특성에 기반한 검색으로 사람이 일일이 주석을 입력하는 방식보다 자동화가 가능하며, 빠르게 인덱싱할 수 있는 장점이 있다. 본 연구에서는 모양을 이용하여 이미지를 인덱싱 하였으며, 스케치된 식물의 잎 모양의 이미지를 이용 하였다. 또한, 식물의 잎에 뻗어있는 잎맥의 모양을 이용하여 검색의 정확도를 높였다.

  • PDF

A Categorization Scheme of Tag-based Folksonomy Images for Efficient Image Retrieval (효과적인 이미지 검색을 위한 태그 기반의 폭소노미 이미지 카테고리화 기법)

  • Ha, Eunji;Kim, Yongsung;Hwang, Eenjun
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.6
    • /
    • pp.290-295
    • /
    • 2016
  • Recently, folksonomy-based image-sharing sites where users cooperatively make and utilize tags of image annotation have been gaining popularity. Typically, these sites retrieve images for a user request using simple text-based matching and display retrieved images in the form of photo stream. However, these tags are personal and subjective and images are not categorized, which results in poor retrieval accuracy and low user satisfaction. In this paper, we propose a categorization scheme for folksonomy images which can improve the retrieval accuracy in the tag-based image retrieval systems. Consequently, images are classified by the semantic similarity using text-information and image-information generated on the folksonomy. To evaluate the performance of our proposed scheme, we collect folksonomy images and categorize them using text features and image features. And then, we compare its retrieval accuracy with that of existing systems.

Using similarity based image caption to aid visual question answering (유사도 기반 이미지 캡션을 이용한 시각질의응답 연구)

  • Kang, Joonseo;Lim, Changwon
    • The Korean Journal of Applied Statistics
    • /
    • v.34 no.2
    • /
    • pp.191-204
    • /
    • 2021
  • Visual Question Answering (VQA) and image captioning are tasks that require understanding of the features of images and linguistic features of text. Therefore, co-attention may be the key to both tasks, which can connect image and text. In this paper, we propose a model to achieve high performance for VQA by image caption generated using a pretrained standard transformer model based on MSCOCO dataset. Captions unrelated to the question can rather interfere with answering, so some captions similar to the question were selected to use based on a similarity to the question. In addition, stopwords in the caption could not affect or interfere with answering, so the experiment was conducted after removing stopwords. Experiments were conducted on VQA-v2 data to compare the proposed model with the deep modular co-attention network (MCAN) model, which showed good performance by using co-attention between images and text. As a result, the proposed model outperformed the MCAN model.

Extending VNC Server and Client for Sharing Clipboard Contents Composed of Text and Images (텍스트와 이미지로 구성된 클립보드 콘텐츠 공유를 위한 VNC 서버와 클라이언트의 확장)

  • Lee, Tae-Ho;Lee, Hong-Chang;Park, Yang-Su;Lee, Myung-Joon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.13 no.4
    • /
    • pp.115-126
    • /
    • 2008
  • VNC(Virtual Network Computing) is a desktop sharing system based on the RFB(Remote Framebuffer) protocol which allows you to control a remote computer running a VNC server through a VNC client(or viewer) on a local computer. To exchange information between the two computers, VNC provides the functionality of sharing the clipboard contents. Unfortunately, the current VNC softwares support only the clipboard text contents, not providing methods for sharing the clipboard multimedia contents such as images. In this paper, we extend the RFB protocol to share the clipboard contents composed of text and images. Also, to support the developed protocol. we extend both the UltraVNC server and the JavaViewer VNC client which are free open-source softwares. Through the developed VNC softwares, users can exchange the clipboard contents including texts and images between the remote computer and the local computer.

  • PDF

Rectification of Document Image on Smartphone Using MSER-b Binarization (MSER-b 이진화 기법을 이용한 스마트폰 문서 이미지 보정 기법)

  • Yu, Young-Jung;Moon, Sang-Ho;Park, Seong-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.19 no.1
    • /
    • pp.201-207
    • /
    • 2015
  • The smartphone with camera can easily generate an image instead of a scanner. However the document image through a smartphone can have distortions related rotation or perspective. In this paper, we proposed a method to generate the document image in that distortions are reduced from the captured document image through a smartphone. For this, the original document image through a smartphone is preprocessed using the MSER-b technique to reduce the light effect. Then, the text area contour is extracted using the characteristics of the document image. Lastly, rotation or perspective distortions are reduced using the extracted text area contour. For experiments, the proposed method is compared two other products. Through experiments, we show that the distortions within the captured document image through smartphone can be effectively reduced.

A Study on the Creation of Digital Self-portrait with Intertextuality (상호텍스트성을 활용한 디지털 자화상 창작)

  • Lim, Sooyeon
    • The Journal of the Convergence on Culture Technology
    • /
    • v.8 no.1
    • /
    • pp.427-434
    • /
    • 2022
  • The purpose of this study is to create a self-portrait that provides an immersive experience that immerses the viewer into the problem of self-awareness. We propose a method to implement an interactive self-portrait by using audio and image information obtained from viewers. The viewer's voice information is converted into text and visualized. In this case, the viewer's face image is used as pixel information composing the text. Text is the result of a mixture of one's own emotions, imaginations, and intentions based on personal experiences and memories. People have different interpretations of certain texts in different ways.The proposed digital self-portrait not only reproduces the viewer's self-consciousness in the inner aspect by utilizing the intertextuality of the text, but also expands the meanings inherent in the text. Intertextuality in a broad sense refers to the totality of all knowledge that occurs between text and text, and between subject and subject. Therefore, the self-portrait expressed in text expands and derives various relationships between the viewer and the text, the viewer and the viewer, and the text and the text. In addition, this study shows that the proposed self-portrait can confirm the formativeness of text and re-create spatial and temporality in the external aspect. This dynamic self-portrait reflects the interests of viewers in real time, and has the characteristic of being updated and created.