• 제목/요약/키워드: character's network

검색결과 134건 처리시간 0.027초

Jungian Character Network in Growing Other Character Archetypes in Films

  • Han, Youngsue
    • International Journal of Contents
    • /
    • 제15권2호
    • /
    • pp.13-19
    • /
    • 2019
  • This research demonstrates a clear visual outline of character influence-relations in creating Jungian character archetypes in films using R computational technology. It contributes to the integration of Jungian analytical psychology into film studies by revealing character network relations in film. This paper handles character archetypes and their influence on developing other character archetypes in films in regards to network analysis drawn from Lynn Schmidt's analysis of 45 master characters in films. Additionally, this paper conducts a character network analysis visualization experiment using R open-source software to create an easily reproducible tutorial for scholars in humanities. This research is a pioneering work that could trigger the academic communities in humanities to actively adopt data science in their research and education.

사회 네트워크 분석을 이용한 중등 인성 교육의 세부요인에 관한 실증 연구 (An Empirical Study on the Sub-factors of Middle School Character Education using Social Network Analysis)

  • 김효정
    • 디지털산업정보학회논문지
    • /
    • 제13권2호
    • /
    • pp.87-98
    • /
    • 2017
  • The advancements in scientific technology and information network in the 21st century allow us to easily acquire a desired knowledge. In the midst of today's informatization, globalization, and cultural diversification, adolescents experience emotional confusion while accommodating diverse cultures and information. This study aimed at examining three aspects of character suggested by the Ministry of Education, which are ethics, sociality, and emotion, and the actual sub-factors required for character education. To that end, a survey was conducted with adolescents who were at a character-building age, and social network analysis (SNA) was performed to determine the effect of character education on the sub-factors. The statistics program SPSS was used to investigate the general traits of the subjects and the validity of the research variables. The 2-mode data that were finally selected were converted to 2-mode data using NetMinder 4, which is a network analysis tool. Furthermore, a data network was established based on a quasi-network that represents the relationships between ethics, sociality, and emotion. The results of this study showed that the subjects considered honesty and justice to be the sub-domains of the ethics domain. In addition, they identified sympathy, communication, consideration for others, and cooperation as the sub-domains of the sociality domain. Finally, they believed that self-understanding and self-control were the sub-domains of the emotion domain.

미디어 작품 캐릭터 가치 측정 연구: 네트워크 중심성 척도와 검색 데이터를 활용하여 (A Study on the Estimation of Character Value in Media Works: Based on Network Centralities and Web-Search Data)

  • 조성현;이민형;최한별;이희석
    • 지식경영연구
    • /
    • 제22권4호
    • /
    • pp.1-26
    • /
    • 2021
  • 무형자산의 가치에 대한 중요성이 대두되면서 이를 측정하는 것에 관한 다양한 연구가 진행되었다. 그러나 미디어 산업의 빠른 성장에도 불구하고 해당 산업 내 캐릭터 가치를 정량적으로 평가하는 데 많은 어려움이 존재한다. 최근에는 소셜 네트워크 분석 (Social Network Analysis) 방법론이 미디어 사용자의 행태를 분석하는 데 유용하게 활용되고 있다. 본 연구는 SNS 데이터를 통하여 미디어 작품의 캐릭터 네트워크 특징과 인간의 검색 행위 사이의 상관 관계를 분석하였다. 분석 결과 미디어 작품의 캐릭터 네트워크 중심성 척도와 검색 데이터 간 유의미한 상관 관계 및 인과성이 확인되었다. 본 연구 결과는 캐릭터 네트워크가 캐릭터 자산의 가치평가를 위한 단서로서 활용될 수 있음을 시사한다.

인스타그램에 나타난 멀티 페르소나 패션이미지에 관한 연구 - "부캐" 사례를 중심으로 - (A study on multi-persona fashion images in Instagram - Focusing on the case of "secondary-characters" -)

  • 김종선
    • 복식문화연구
    • /
    • 제29권4호
    • /
    • pp.603-615
    • /
    • 2021
  • The aim of this study was to analyze the semantic network structure of keywords and the visual composition of images extracted from Instagram in relation to the multi-persona phenomenon with in fashion imagery, which has recently been attracting attention. To this end, the concept of a 'secondary character', which forms a separate identity from a 'main character' on various social media platforms as well as on the airwaves, was considered as the spread of multi-persona and #SecondaryCharacter on Instagram was investigated. 3,801 keywords were collected after crawling the data using Python and morphological analysis was undertaken using KoNLP. The semantic network structure was then examined by conducting a CONCOR analysis using UCINET and Netdraw to determine the top 50 keywords. The results were then classified into a total of 6 clusters. In accordance with the meaning and context of the keywords included in each cluster, group names were assigned : virtual characters, relationship with the main character, hobbies, daily record, N-job person, media and marketing. Image analysis considered the technical, compositional, and social styles of the media based on Gillian Rose's visual analysis method. The results determined that Instagram uses fashion images that virtualize one's face to produce multi-persona representation s that show various occupations, describe different types of hobbies, and depict situations pertaining to various social roles.

A Unicode based Deep Handwritten Character Recognition model for Telugu to English Language Translation

  • BV Subba Rao;J. Nageswara Rao;Bandi Vamsi;Venkata Nagaraju Thatha;Katta Subba Rao
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.101-112
    • /
    • 2024
  • Telugu language is considered as fourth most used language in India especially in the regions of Andhra Pradesh, Telangana, Karnataka etc. In international recognized countries also, Telugu is widely growing spoken language. This language comprises of different dependent and independent vowels, consonants and digits. In this aspect, the enhancement of Telugu Handwritten Character Recognition (HCR) has not been propagated. HCR is a neural network technique of converting a documented image to edited text one which can be used for many other applications. This reduces time and effort without starting over from the beginning every time. In this work, a Unicode based Handwritten Character Recognition(U-HCR) is developed for translating the handwritten Telugu characters into English language. With the use of Centre of Gravity (CG) in our model we can easily divide a compound character into individual character with the help of Unicode values. For training this model, we have used both online and offline Telugu character datasets. To extract the features in the scanned image we used convolutional neural network along with Machine Learning classifiers like Random Forest and Support Vector Machine. Stochastic Gradient Descent (SGD), Root Mean Square Propagation (RMS-P) and Adaptative Moment Estimation (ADAM)optimizers are used in this work to enhance the performance of U-HCR and to reduce the loss function value. This loss value reduction can be possible with optimizers by using CNN. In both online and offline datasets, proposed model showed promising results by maintaining the accuracies with 90.28% for SGD, 96.97% for RMS-P and 93.57% for ADAM respectively.

스토리 기반의 정보 검색 연구 (Story-based Information Retrieval)

  • 유은순;박승보
    • 지능정보연구
    • /
    • 제19권4호
    • /
    • pp.81-96
    • /
    • 2013
  • 웹의 발전과 콘텐츠 산업의 팽창으로 비디오 데이터가 폭발적으로 증가함에 따라 데이터의 정보 검색은 매우 중요한 문제가 되었다. 그동안 비디오 데이터의 정보 검색과 브라우징을 위해 비디오의 프레임(frame)이나 숏(shot)으로부터 색채(color)와 질감(texture), 모양(shape)과 같은 시각적 특징(features)들을 추출하여 비디오의 내용을 표현하고 유사도를 측정하는 내용 기반(content-based)방식의 비디오 분석이 주를 이루었다. 영화는 하위 레벨의 시청각적 정보와 상위 레벨의 스토리 정보를 포함하고 있다. 저차원의 시각적 특징을 통해 내용을 표현하는 내용 기반 분석을 영화에 적용할 경우 내용 기반 분석과 인간이 인지하는 영화의 내용 사이에는 의미적 격차(semantic gap)가 발생한다. 왜냐하면 영화의 스토리는 시간의 진행에 따라 그 내용이 변하고, 관점에 따라 주관적 해석이 가능한 고차원의 의미정보이기 때문이다. 따라서 스토리 차원의 정보 검색을 위해서는 스토리를 모델링하는 정형화된 모형이 필요하다. 최근 들어 소셜 네트워크 개념을 활용한 스토리 기반의 비디오 분석 방법들이 등장하고 있다. 그러나 영화 속 등장인물들의 소셜 네트워크를 통해 스토리를 표현하는 이 방법들은 몇 가지 문제점들을 드러내고 있다. 첫째, 등장인물들의 관계에만 초점이 맞추어져 있으며, 스토리 진행에 따른 등장인물들의 관계 변화를 역동적으로 표현하지 못한다. 둘째, 등장인물의 정체성과 심리상태를 보여주는 감정(emotion)과 같은 심층적 정보를 간과하고 있다. 셋째, 등장인물 이외에 스토리를 구성하는 사건과 배경에 대한 정보들을 반영하지 못하고 있다. 따라서 본 연구는 기존의 스토리 기반의 비디오 분석 방법들의 한계를 살펴보고, 문제 해결을 위해 문학 이론에서 제시하고 있는 서사 구조에 근거하여 스토리 모델링에 필요한 요소들을 인물, 배경, 사건의 세 가지 측면에서 제시하고자 한다.

신경회로망과 기억이론에 기반한 한글영상 인식과 복원 (The Hangeul image's recognition and restoration based on Neural Network and Memory Theory)

  • 장재혁;박중양;박재홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.17-27
    • /
    • 2005
  • 본 논문에서는 문자인식과 복원을 위한 신경회로망 시스템을 제안한다. 제안하는 시스템은 인식부와 연상부로 구성되었다. 인식부에서는 ART 신경회로망의 인식성능을 개선하기 위해 불필요한 하향틀의 생성과 변화를 제한하여 효과적인 패턴인식이 가능한 모델을 제안하였다. 또한, 한글의 구조적인 특징을 능동적으로 적용할 수 있게 구성된 위치특징 추출 알고리즘을 적용하였다. 연상부에서는 Hopfield 신경회로망으로, 입력된 이미지 패턴의 복원이 가능한 모델을 구성하였다. 제안하는 시스템은 그 성능을 확인하기 위해 각 부분별 실험을 하였다. 그 결과 인식율이 개선되고 복원이 가능함을 보였다.

  • PDF

무게중심을 활용한 모션 생성 기술 (Motion generation using Center of Mass)

  • 박근태;손채준;이윤상
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제26권2호
    • /
    • pp.11-19
    • /
    • 2020
  • 캐릭터의 자세가 변할 때 마다 캐릭터의 무게 중심(COM) 위치도 변하게 된다. 이 때 무게 중심의 위치 변화는 걷기, 뛰기, 쭈그려 앉기 등 다양한 동작 각각에 대응되는 독자적인 패턴을 가지므로 이를 이용하면 원래 동작의 정보를 알아낼 수 있다. 본 논문에서는 캐릭터의 무게 중심의 위치 변화를 토대로 동작을 예측하는 모션 생성 기법을 제안한다. 이 방법을 이용하면 무게 중심 정보를 통해 원래 동작의 유형에 대한 별도의 라벨 없이도 다양한 동작을 생성할 수 있다. 그러므로 네트워크의 학습 및 실행을 위한 데이터셋을 만들 때 사람의 손을 거칠 필요 없이 전처리를 비롯한 모든 과정을 자동으로 진행할 수 있다. 본 논문에서 제안하는 신경망 모델은 캐릭터의 모션 이력(history) 정보와 무게 중심 정보들을 입력 받아 현재 프레임에서의 포즈 정보를 출력하며, 연속적인 시계열 모션 데이터를 다루기 위해 1차원 Convolution을 수행하는 간단한 형태의 Convolutional Neural Network(CNN)를 사용하여 학습되었다.

Optical Character Recognition for Hindi Language Using a Neural-network Approach

  • Yadav, Divakar;Sanchez-Cuadrado, Sonia;Morato, Jorge
    • Journal of Information Processing Systems
    • /
    • 제9권1호
    • /
    • pp.117-140
    • /
    • 2013
  • Hindi is the most widely spoken language in India, with more than 300 million speakers. As there is no separation between the characters of texts written in Hindi as there is in English, the Optical Character Recognition (OCR) systems developed for the Hindi language carry a very poor recognition rate. In this paper we propose an OCR for printed Hindi text in Devanagari script, using Artificial Neural Network (ANN), which improves its efficiency. One of the major reasons for the poor recognition rate is error in character segmentation. The presence of touching characters in the scanned documents further complicates the segmentation process, creating a major problem when designing an effective character segmentation technique. Preprocessing, character segmentation, feature extraction, and finally, classification and recognition are the major steps which are followed by a general OCR. The preprocessing tasks considered in the paper are conversion of gray scaled images to binary images, image rectification, and segmentation of the document's textual contents into paragraphs, lines, words, and then at the level of basic symbols. The basic symbols, obtained as the fundamental unit from the segmentation process, are recognized by the neural classifier. In this work, three feature extraction techniques-: histogram of projection based on mean distance, histogram of projection based on pixel value, and vertical zero crossing, have been used to improve the rate of recognition. These feature extraction techniques are powerful enough to extract features of even distorted characters/symbols. For development of the neural classifier, a back-propagation neural network with two hidden layers is used. The classifier is trained and tested for printed Hindi texts. A performance of approximately 90% correct recognition rate is achieved.

Study on 2D Sprite *3.Generation Using the Impersonator Network

  • Yongjun Choi;Beomjoo Seo;Shinjin Kang;Jongin Choi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1794-1806
    • /
    • 2023
  • This study presents a method for capturing photographs of users as input and converting them into 2D character animation sprites using a generative adversarial network-based artificial intelligence network. Traditionally, 2D character animations have been created by manually creating an entire sequence of sprite images, which incurs high development costs. To address this issue, this study proposes a technique that combines motion videos and sample 2D images. In the 2D sprite generation process that uses the proposed technique, a sequence of images is extracted from real-life images captured by the user, and these are combined with character images from within the game. Our research aims to leverage cutting-edge deep learning-based image manipulation techniques, such as the GAN-based motion transfer network (impersonator) and background noise removal (U2 -Net), to generate a sequence of animation sprites from a single image. The proposed technique enables the creation of diverse animations and motions just one image. By utilizing these advancements, we focus on enhancing productivity in the game and animation industry through improved efficiency and streamlined production processes. By employing state-of-the-art techniques, our research enables the generation of 2D sprite images with various motions, offering significant potential for boosting productivity and creativity in the industry.