• 제목/요약/키워드: Model Library

검색결과 1,528건 처리시간 0.031초

Pig Image Learning for Improving Weight Measurement Accuracy

  • Jonghee Lee;Seonwoo Park;Gipou Nam;Jinwook Jang;Sungho Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권7호
    • /
    • pp.33-40
    • /
    • 2024
  • 가축의 생체중은 건강 및 사육 환경 관리에 중요한 정보이고 이를 통해 최적 사료량이나 출하 시기 등을 결정하게 된다. 일반적으로 가축의 무게를 측정할 때 체중계를 이용하지만, 체중계를 이용한 가축 무게를 측정하는데 상당한 인력과 시간이 필요하고 성장 단계별 측정이 어려워 사료급이량 조절 등의 효과적인 사육 방법이 적용되지 못하는 단점이 있다. 본 연구는 축산 양돈 분야에 영상 및 이미지 데이터를 수집, 분석, 학습, 예측 등을 통해 포유자돈, 이유자돈, 육성돈, 비육돈 구간별 체중 측정에 관한 연구와 함께 정확도를 높이고자 하였다. 이를 위해 파이토치(pytorch), YOLO(you only look once) 5 모델, 사이킷런(scikit learn) 라이브러리를 사용하여 학습시킨 결과, 실제치(actual)와 예측치(prediction) 그래프에서 RMSE(root mean square error) 0.4%와 MAPE(mean absolute percentage error) 0.2%로 유사한 흐름을 확인할 수 있다. 이는 양돈 분야의 포유자돈, 이유자돈, 육성돈, 비육돈 구간에서 활용할 수 있으며 다각도로 학습된 이미지 및 영상 데이터와 실제 측정된 체중 데이터를 바탕으로 지속적인 정확도 향상이 가능하고 향후 영상판독을 통해 돼지의 부유별 생산량에 대한 예측으로 효율적인 사육관리가 가능할 것으로 기대된다.

혁신형 중소기업의 재무적 제약과 배당스무딩간의 관계 (The Relations between Financial Constraints and Dividend Smoothing of Innovative Small and Medium Sized Enterprises)

  • 신민식;김수은
    • 중소기업연구
    • /
    • 제31권4호
    • /
    • pp.67-93
    • /
    • 2009
  • 본 연구는 1999년 1월 1일부터 2007년 12월 31일까지 한국거래소의 유가증권시장과 코스닥시장에 상장된 혁신형 중소기업을 대상으로 재무적 제약과 배당스무딩간의 관계를 실증분석 하였으며, 주요한 분석결과는 다음과 같다. 기업들은 목표 배당성향을 가지고 있으며, 실제 배당성향이 목표 배당성향에서 이탈하면 다시 배당지급을 부분적으로 조정한다. 배당조정속도는 Lintner(1956)의 배당조정모형의 핵심변수인 전기 주당배당과 당기 주당이익을 사용하여 거의 대부분 측정할 수 있으며, 잔여배당이론과 그 이후에 등장한 배당신호이론, 대리인이론, 케이터링 이론 및 거래비용이론에 관한 대용변수들은 배당조정속도에 부분적으로 영향을 미친다. 그리고 전기 주당배당은 당기 주당이익보다 배당조정속도에 더 큰 영향을 미치는데, 이는 기업들이 특별한 이유가 없는 한 전기 주당배당 수준을 장기적으로 유지하는 안정적인 배당정책을 선호한다는 증거가 된다. 혁신형 중소기업은 비혁신형 중소기업보다 배당조정속도가 더 빠르다. 혁신형 중소기업은 R&D 투자에 따른 미래의 성장성과 수익성을 담보로 하여 장기적으로 안정적인 배당정책을 유지할 수 있다. 다시 말해, 혁신형 중소기업은 배당지급이 목표 배당성향에서 이탈하더라도, R&D 투자에 따른 미래의 성장성과 수익성을 담보로 하여 목표 배당성향을 향하여 배당지급을 신속하게 조정하여 배당스무딩을 효과적으로 달성할 수 있다. 그리고 혁신형 중소기업 중에서도 재무적 비제약 기업은 재무적 제약 기업보다 배당조정속도가 더 빠르다. 이는 재무적 비제약 기업일수록 자본시장을 통한 외부 자금조달이 용이하기 때문에 주당배당을 신속하게 조정한다는 증거가 된다. 따라서 자본시장 접근성이 용이하여 재무적 제약을 적게 받는 기업일수록 외부 자금조달이 용이하기 때문에 배당지급을 더 신속하게 조정함으로써 배당스무딩을 더 효과적으로 달성할 수 있다. 그리고 중소기업청이 정책적 목적으로 분류한 혁신형 중소기업(벤처기업, 이노비즈기업, 경영혁신형기업)은 비혁신형 중소기업보다 배당조정속도가 더 빠르다. 중소기업청에서 정책적 목적으로 분류한 혁신형 중소기업은 신용보증지원, 정책자금지원, 조세혜택, 공공입찰 우선권 부여 등과 같은 다양한 정책적 혜택으로 인해 재무적 제약을 적게 받기 때문에 배당지급을 더 신속하게 조정할 수 있다. 결론적으로, 한국거래소의 유가증권시장과 코스닥시장에 상장된 혁신형 중소기업은 비혁신형 중소기업보다 배당조정속도가 더 빠르고, 혁신형 중소기업 중에서도 재무적 비제약 기업은 재무적 제약 기업보다 배당조정 속도가 더 빠르다. 다시 말해, 중소기업 중에서도 R&D 집중도가 높은 혁신형 중소기업은 R&D 투자에 따른 미래의 성장성과 수익성을 담보로 하여 배당스무딩을 신속하게 할 수 있고, 혁신형 중소기업 중에서도 자본시장 접근성이 좋은 기업은 재무적 제약을 적게 받기 때문에 배당스무딩을 더 신속하게 할 수 있다. 따라서 중소기업 경영자는 R&D 집중도를 증가시키고 자본시장 접근성을 높여 재무적 제약을 회피함으로써 신속한 배당스무딩을 통해 장기적으로 안정적인 배당정책을 유지할 수 있다고 생각한다. 그리고 중소기업청이 정책적 목적으로 분류한 혁신형 중소기업(벤처기업, 이노비즈기업, 경영혁신형기업)의 경우에도 배당조정속도가 비혁신형 중소기업보다 더 빠르게 나왔다. 이러한 결과는 배당정책의 측면에서 중소기업청의 혁신형 중소기업 정책을 지지하는 실증적인 증거가 된다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

영화 리뷰 감성분석을 위한 텍스트 마이닝 기반 감성 분류기 구축 (A Study on Analyzing Sentiments on Movie Reviews by Multi-Level Sentiment Classifier)

  • 김유영;송민
    • 지능정보연구
    • /
    • 제22권3호
    • /
    • pp.71-89
    • /
    • 2016
  • 누구나 본인이 사용한 제품이나, 이용한 서비스에 대한 후기를 자유롭게 인터넷에 작성할 수 있고, 이러한 데이터의 양은 점점 더 많아지고 있다. 감성분석은 사용자가 생성한 온라인 텍스트 속에 내포된 감성 및 감정을 식별하기 위해 사용된다. 본 연구는 다양한 데이터 도메인 중 영화 리뷰를 분석 대상으로 한다. 영화 리뷰를 이용한 기존 연구에서는 종종 리뷰 평점을 관객의 감성으로 동일시하여 감성분석에 이용한다. 그러나 리뷰 내용과 평점의 실제적 극성 정도가 항상 일치하는 것은 아니기 때문에 연구의 정확성에 한계가 발생할 수 있다. 이에 본 연구에서는 기계학습 기반의 감성 분류기를 구축하고, 이를 통해 리뷰의 감성점수를 산출하여 리뷰에서 나타나는 감성의 수치화를 목표로 한다. 나아가 산출된 감성점수를 이용하여 리뷰와 영화 흥행 간의 연관성을 살펴보았다. 감성분석 모델은 지지벡터 분류기와 신경망을 이용해 구축되었고, 총 1만 건의 영화 리뷰를 학습용 데이터로 하였다. 감성분석은 총 175편의 영화에 대한 1,258,538개의 리뷰에 적용하였다. 리뷰의 평점과 흥행, 그리고 감성점수와 흥행과의 연관성은 상관분석을 통해 살펴보았고, t-검정으로 두 지표의 평균차를 비교하여 감성점수의 활용성을 검증하였다. 연구 결과, 본 연구에서 제시하는 모델 구축 방법은 나이브 베이즈 분류기로 구축한 모델보다 높은 정확성을 보였다. 상관분석 결과로는, 영화의 주간 평균 평점과 관객 수 간의 유의미한 양의 상관관계가 나타났고, 감성점수와 관객 수 간의 상관분석에서도 유사한 결과가 도출되었다. 이에 두 지표간의 평균을 이용한 t-검정을 수행하고, 이를 바탕으로 산출한 감성점수를 리뷰 평점의 역할을 할 수 있는 지표로써 활용 가능함을 검증하였다. 나아가 검증된 결론을 근거로, 트위터에서 영화를 언급한 트윗을 수집하여 감성분석을 적용한 결과를 살펴봄으로써 감성분석 모델의 활용 방안을 모색하였다. 전체적 실험 및 검증의 과정을 통해 본 연구는 감성분석 연구에 있어 개선된 감성 분류 방법을 제시할 수 있음을 보였고, 이러한 점에서 연구의 의의가 있다.

주제목록을 위한 한국용어열색인 시스템의 기능 (Function of the Korean String Indexing System for the Subject Catalog)

  • 윤구호
    • 한국문헌정보학회지
    • /
    • 제15권
    • /
    • pp.225-266
    • /
    • 1988
  • Various theories and techniques for the subject catalog have been developed since Charles Ammi Cutter first tried to formulate rules for the construction of subject headings in 1876. However, they do not seem to be appropriate to Korean language because the syntax and semantics of Korean language are different from those of English and other European languages. This study therefore attempts to develop a new Korean subject indexing system, namely Korean String Indexing System(KOSIS), in order to increase the use of subject catalogs. For this purpose, advantages and disadvantages between the classed subject catalog nd the alphabetical subject catalog, which are typical subject ca-alogs in libraries, are investigated, and most of remarkable subject indexing systems, in particular the PRECIS developed by the British National Bibliography, are reviewed and analysed. KOSIS is a string indexing based on purely the syntax and semantics of Korean language, even though considerable principles of PRECIS are applied to it. The outlines of KOSIS are as follows: 1) KOSIS is based on the fundamentals of natural language and an ingenious conjunction of human indexing skills and computer capabilities. 2) KOSIS is. 3 string indexing based on the 'principle of context-dependency.' A string of terms organized accoding to his principle shows remarkable affinity with certain patterns of words in ordinary discourse. From that point onward, natural language rather than classificatory terms become the basic model for indexing schemes. 3) KOSIS uses 24 role operators. One or more operators should be allocated to the index string, which is organized manually by the indexer's intellectual work, in order to establish the most explicit syntactic relationship of index terms. 4) Traditionally, a single -line entry format is used in which a subject heading or index entry is presented as a single sequence of words, consisting of the entry terms, plus, in some cases, an extra qualifying term or phrase. But KOSIS employs a two-line entry format which contains three basic positions for the production of index entries. The 'lead' serves as the user's access point, the 'display' contains those terms which are themselves context dependent on the lead, 'qualifier' sets the lead term into its wider context. 5) Each of the KOSIS entries is co-extensive with the initial subject statement prepared by the indexer, since it displays all the subject specificities. Compound terms are always presented in their natural language order. Inverted headings are not produced in KOSIS. Consequently, the precision ratio of information retrieval can be increased. 6) KOSIS uses 5 relational codes for the system of references among semantically related terms. Semantically related terms are handled by a different set of routines, leading to the production of 'See' and 'See also' references. 7) KOSIS was riginally developed for a classified catalog system which requires a subject index, that is an index -which 'trans-lates' subject index, that is, an index which 'translates' subjects expressed in natural language into the appropriate classification numbers. However, KOSIS can also be us d for a dictionary catalog system. Accordingly, KOSIS strings can be manipulated to produce either appropriate subject indexes for a classified catalog system, or acceptable subject headings for a dictionary catalog system. 8) KOSIS is able to maintain a constistency of index entries and cross references by means of a routine identification of the established index strings and reference system. For this purpose, an individual Subject Indicator Number and Reference Indicator Number is allocated to each new index strings and new index terms, respectively. can produce all the index entries, cross references, and authority cards by means of either manual or mechanical methods. Thus, detailed algorithms for the machine-production of various outputs are provided for the institutions which can use computer facilities.

  • PDF

송사리 Tyrosine Hydroxylase: cDNA 클로닝 및 생물지표로서의 TH 유전자 발현의 분자생물학적 추적 (Ttrosine Hydroxylase in Japanese Medaka (Oryzias latipes): cDNA Cloning and Molecular Monitoring of TH Gene Expression As a Biomarker)

  • Shin, Sung-Woo;Kim, Jung-Sang;Chon, Tae-Soo;Lee, Sung-Kyu;Koh, Sung-Cheol
    • Environmental Analysis Health and Toxicology
    • /
    • 제15권4호
    • /
    • pp.131-137
    • /
    • 2000
  • 최근 독성 유해물질의 환경으로의 방출로 인해 인간 및 생태계에 대한 위해성 문제가 심각하게 제기되고 있다. 독성화학물질을 포함한 여러 환경 오염물질의 위해성평가는 화학물질의 유해성과 노출량 측정을 동시에 측정함으로써 가능한데 이 경우 생물지표(biomarker)가 최근 각광을 받고 있다. 본 연구에서는 동물의 행동에 관련된 신경전달물질의 생성에 결정적 역할을 하는 tyrosine hydroxylase(TH)및 그 유전자가 생물지표로서 이용 가능성이 있는지를 검토하였다. Ovary cDNA library의 PCR 스크리닝을 통한 송사리 TH유전자를 부분적으로 를론하였으며(327 bp), DNA염기서열 분석 결과 쥐 (rat)의 TH유전자와 동일한 염기서열을 보였다. 그리고 다이아지논 처리구 및 무처리구에서 송사리의 머리부분(head)및 몸통 부분(body)에서 추출된 총RNA에 TH mRNA가 존재함을 RT-PCR를 통하여 확인하였다. 그러나 다이아지논의 처리효과가 송사리의 행동에 미치는 영향을 보기 위해서는 TH의 발현을 보다 정량적으로 검토할 필요가 있을 것으로 판단된다. 생물지표로서 TH의 활성 및 mRNA의 기관별 또는 조직별 검출은 독성물질에 영향을 받는 어류 신경행동 변화를 모니터링 할 수 있는 유용한 수단이 될 것이다. 나아가 환경관리에 있어서 신경화학물질과 분자생물학적 상관관계를 통한 이상반응행동의 분석은 환경 위해성평가에 상당히 기여할 것이다.

  • PDF

Schizosaccharomyces bombe 포자형성 유전자(spo5)의 Cloning 및 전사조절 (Cloning and Transcription Analysis of Sporulation Gene (spo5) in Schizosaccharomyces pombe)

  • 김동주
    • 한국식품영양학회지
    • /
    • 제15권2호
    • /
    • pp.112-118
    • /
    • 2002
  • 분열효모 S. pombe의 포자형성은 배지상의 질소원 고갈에 의해 유도되어지며 감수분열로부터 포자형성에 도달하는 과정에는 다수의 특이적인 유전자들이 관여하고 있다. 본 실험에서는 S. pombe genomic library 형질 전환법으로 spo5 유전자를 상보하는 clone을 screening한 후, sport 유전자를 단리하였다$^{8)}$ . 전포자막 구축에 필수적인 sport 유전자를 보유하는 약 5kb의 DNA 단편을 대장균, 효모 shuttle vector pTB248'의 Hind III 부위에 subclonning하였다. 그리고 이 DNA단편으로부터 제한 효소 지도를 작성하여(Fig. 2), spo5 변이체의 상보 능력을 조사하였다 (Fig. 3). 결과에서 서술한 바와 같이 상보능력은 동일하였으며, 이러한 상보성 실험 결과로부터 삽입된 단편상의 유전자 발현은 벡터의 promoter로부터 전사가 일어나는 것이 아니라, 삽입 단편상의 효모 고유의 promoter 에 의해서 전사가 일어나는 것으로 확인되었다. 따라서 clone화 한 DNA 단편 배열상에는 변역영역뿐만 아니라 promoter 영역이 포함된 것으로 판단되었다. 결실변이 도입 해석으로부터, spo5 유전자는 Sma I 부터 Hind m의 3kb 영역에 존재하였고 (Fig. 3), Nor-thern분석에 의해서 spo5 유전자의 전사를 조사한 결과, spo5 -mRNA는 Sma I 부터 Hind III 의 3kb 영 역에서 약2.5kb 크기로 검출되었다. 이 단편의 유전해석으로 부터 약 2.5kb의 전사산물은 최대 800개의 아미노산 잔기를 code하는 단백질로 판단되었다(Fig. 4). 그리고, Northern 분석법에 의해서 spo5 유전자의 전사를 조사한 결과, 서술한 바와 같이, 이 유전자는 질소기아 조건하에서만 유전자가 발현되는 것을 확인하였다(Fig. 4-2.5kb 단편).었다. 그리고 Edman법으로 결정한 PPIase의 39아미노산 잔기가 이 배열내에 완전히 보존되어 있었다. 이 결과로부터 이 ORF는PPIase구조 유전자의 1/3에 해당하는 단편임을 확인하였다. training system to a dangerous work like as "Interruption-free live-line work exchanging COS(Cut-Out-Switch)". In this program, the user works with a instruction on the window and speaker and can't work other tasks until each part of the task completed. The workers using this system can use their hands and viewpoint movement as he is in a real environment but the trainee can't use all parts and senses of a real body with the current VR technology. Despite of this weak point, when we consider the trends of improvement in electrical devices and communication technology, we can say that 3D graphic VR application has a high potentiality.) 야생화 초지(NWP, IWP)는 관행 혼파초지나 하번초 혼파초지에 비하여 동물상이 다양하고 많게 분포되었으며 그중 외국산 야생화초지의 동물 개체수가 가장 많게 나타났다. 이상의 결과를 종합할 때, 야생화 초지는 봄부터 가을까지 야생화가 지속되었고, 양서류 및 곤충의 개체 수가 증가되었던 것으로 보아 야생화 초지의 공익적인 측면에서의 활용 가능성도 클 것으로 기대된다

기록 생애주기 관점에서 본 기록관리 메타데이터 표준의 특징 분석 (Feature Analysis of Metadata Schemas for Records Management and Archives from the Viewpoint of Records Lifecycle)

  • 백재은;스기모토 시게오
    • 한국기록관리학회지
    • /
    • 제10권2호
    • /
    • pp.75-99
    • /
    • 2010
  • 인터넷과 컴퓨터의 발전으로 다양한 환경이 끊임없이 제공되고, 이로 인해 대량의 디지털 리소스가 축적, 발신되고 있다. 이는 다양한 문제를 가져왔고, 우리는 디지털 리소스를 미래에 이용가능하도록 지속하고 보존하기 위한 기본적인 문제에 직면하게 되었다. 디지털 리소스를 장기간 보존하기 위해서는 리소스에 적합한 보존 방침과 방법이 필요하고, 따라서 여러 스탠다드가 개발되고 사용되어지고 있다. 메타데이터는 디지털 리소스를 장기간 유지하기 위한 디지털 아카이브에서 가장 중요한 구성요소 중 하나 이다. 디지털 리소스의 아카이빙과 보존을 위해 사용되는 메타데이터는 많이 있다. 그러나 각각의 스탠다드 는 주된 어플리케이션에 따라 각각의 특징을 가지고 있다. 이는 각각의 스키마가 특정한 어플리케이션에 따라 적절하게 선택하고 맞춰지지 않으면 안 되는 것을 의미한다. 경우에 따라서는DCMI의 어플리케이션 프레임워크와 METS와 같이, 스키마는 거대한 프레임워크와 컨테이너 메타데이터로 결합되어 있다. 다양한 메타데이터가 있는 가운데, 본 논문에서는 아카이브를 행하기 위해 용이되어 있는 메타데이터 스키마로, 공문서 혹은 행정문서등의 아카이브를 위해 기술하고 있는 ISAD(G), 디지털 리소스를 위해 작성된 EAD, 보존한 디지털 리소스를 위해 메타데이터 프레임워크를 정의하고 있는 OAIS, 디지털 리소스의 보존을 위한 PREMIS, 그리고 리소스의 관리와 검색을 위해 작성된 AGLS Metadata를 사용하여, '보존해야 되는 리소스에 하나의 메타데이터만을 선택해서 이용한다면 어떠한 문제가 생기는 가'라고 하는 의문을 바탕으로 접근하였다. 본 논문은 기록 생애주기 모델을 기초로, 스탠다드의 특징분석을 통해서 알게 된 메타데이터 스탠다드의 특징을 보여주고 있다. 특징은 이들 스탠다드의 메타데이터 기술요소가 기록 생애주기에서의 작업(task)에 관련하는 것을 간단하게 단일의 프레임워크로 보여줬다. 메타데이터 기술요소의 상세한 분석을 통해서, 우리는 기술 생애주기의 단계와 기술요소 간의 관계의 관점에서부터 스탠다드의 특징을 확실하게 할 수 있었다. 메타데이터 스키마간의 매핑은 다른 스키마가 기록 생애주기에서 사용되기에 장기 보존과정에 있어 자주 요구된다. 따라서 이러한 스키마의 상호운용성을 향상시키기 위해서는 통일된 프레임워크를 구축하는 것이 중요하다. 이 연구에서는 디지털 아카이빙과 보존에 사용되는 다른 메타데이터 스키마의 상호운용성을 기초로 제시한다.

부동산 정책 관련 트위터 게시물 분석을 통한 대중 여론 이해 (Understanding Public Opinion by Analyzing Twitter Posts Related to Real Estate Policy)

  • 김규리;오찬희;주영준
    • 한국문헌정보학회지
    • /
    • 제56권3호
    • /
    • pp.47-72
    • /
    • 2022
  • 본 연구는 시간의 흐름에 따른 부동산 정책의 주제 동향과 부동산 정책에 대한 대중의 감성 여론을 파악하고자 하였다. 부동산 정책 관련 키워드('부동산정책', '부동산대책')를 이용하여 2008년 2월 25일부터 2021년 8월 31일까지 13년 6개월 동안 작성된 총 91,740개의 트위터 게시물을 수집하였다. 데이터를 전처리하고 공급, 부동산세, 금리, 인구 분산으로 범주화 하여 총 18,925개의 게시물에 대하여 감성 분석과 다이나믹 토픽 모델 분석을 진행하였다. 범주별 키워드는 공급 범주(임대주택, 그린벨트, 신혼부부, 무주택자, 공급, 재건축, 분양), 부동산세 범주(종부세, 취득세, 보유세, 다주택자, 투기), 금리 범주(금리), 인구 분산 범주(세종, 신도시)와 같다. 감성 분석 결과, 한 명이 평균 하나 또는 두 개의 긍정 의견을 게시한 걸로 확인되었고, 부정, 중립 의견의 경우, 한 명이 두 개 또는 세 개의 게시물을 게시한 걸로 확인되었다. 또한 일부 대중들은 부동산 정책에 일관된 감정을 가지고 있지 않고 긍정, 부정, 중립의 의견을 모두 표현하는 것을 유추할 수 있었다. 다이나믹 토픽 모델링 결과, 부동산 투기 세력, 불로소득 주제에 대한 부정적인 반응이 꾸준히 파악되었으며, 긍정적인 주제로는 주택 공급 확대와 무주택자들의 부동산 구입 혜택에 대한 기대감을 확인할 수 있었다. 본 연구는 기존 선행연구들이 특정 부동산 정책의 변화와 평가에 초점을 맞춰 분석한 것과는 달리, 소셜미디어 플랫폼 중 하나인 트위터에서 게시물을 수집하고 감성 분석, 다이나믹 토픽 모델링 분석을 활용하여 부동산 정책 평가자인 대중의 감성과 여론을 알아보고 시간의 흐름에 따른 부동산 정책에 관한 잠재적 주제와 동향을 파악했다는 것에 학술적 의의가 있다. 또한, 본 연구를 통해 부동산 정책에 대한 대중의 여론에 기반한 새로운 정책 제정에 도움을 주려고 한다.

딥러닝 프레임워크의 비교: 티아노, 텐서플로, CNTK를 중심으로 (Comparison of Deep Learning Frameworks: About Theano, Tensorflow, and Cognitive Toolkit)

  • 정여진;안성만;양지헌;이재준
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.1-17
    • /
    • 2017
  • 딥러닝 프레임워크의 대표적인 기능으로는 '자동미분'과 'GPU의 활용' 등을 들 수 있다. 본 논문은 파이썬의 라이브러리 형태로 사용 가능한 프레임워크 중에서 구글의 텐서플로와 마이크로소프트의 CNTK, 그리고 텐서플로의 원조라고 할 수 있는 티아노를 비교하였다. 본문에서는 자동미분의 개념과 GPU의 활용형태를 간단히 설명하고, 그 다음에 logistic regression을 실행하는 예를 통하여 각 프레임워크의 문법을 알아본 뒤에, 마지막으로 대표적인 딥러닝 응용인 CNN의 예제를 실행시켜보고 코딩의 편의성과 실행속도 등을 확인해 보았다. 그 결과, 편의성의 관점에서 보면 티아노가 가장 코딩 하기가 어렵고, CNTK와 텐서플로는 많은 부분이 비슷하게 추상화 되어 있어서 코딩이 비슷하지만 가중치와 편향을 직접 정의하느냐의 여부에서 차이를 보였다. 그리고 각 프레임워크의 실행속도에 대한 평가는 '큰 차이는 없다'는 것이다. 텐서플로는 티아노에 비하여 속도가 느리다는 평가가 있어왔는데, 본 연구의 실험에 의하면, 비록 CNN 모형에 국한되었지만, 텐서플로가 아주 조금이지만 빠른 것으로 나타났다. CNTK의 경우에도, 비록 실험환경이 달랐지만, 실험환경의 차이에 의한 속도의 차이의 편차범위 이내에 있는 것으로 판단이 되었다. 본 연구에서는 세 종류의 딥러닝 프레임워크만을 살펴보았는데, 위키피디아에 따르면 딥러닝 프레임워크의 종류는 12가지가 있으며, 각 프레임워크의 특징을 15가지 속성으로 구분하여 차이를 특정하고 있다. 그 많은 속성 중에서 사용자의 입장에서 볼 때 중요한 속성은 어떤 언어(파이썬, C++, Java, 등)로 사용가능한지, 어떤 딥러닝 모형에 대한 라이브러리가 잘 구현되어 있는지 등일 것이다. 그리고 사용자가 대규모의 딥러닝 모형을 구축한다면, 다중 GPU 혹은 다중 서버를 지원하는지의 여부도 중요할 것이다. 또한 딥러닝 모형을 처음 학습하는 경우에는 사용설명서가 많은지 예제 프로그램이 많은지 여부도 중요한 기준이 될 것이다.