• 제목/요약/키워드: digital library model

검색결과 229건 처리시간 0.028초

국내 약침 특허 현황에 대한 분석연구 (Review on the Pharmacopuncture Patent in Korea)

  • 우성천;강준철;김송이;박지연
    • Korean Journal of Acupuncture
    • /
    • 제34권4호
    • /
    • pp.191-208
    • /
    • 2017
  • Objectives : The purpose of this study was to analyze the trend of pharmacopuncture in Korean patent in order to establish database for patent technology. Methods : Electronic literature searches for Korean patents related to pharmacopuncture were performed in two electronic databases (Korea Intellectual Property Right Information Service and National Digital Science Library) to June 2017. Patents that were not Korean ones, did not use medicinal herb, only described method of manufacture, or had nothing to do with pharmacopuncture were excluded in this study. The status and application date of patents, Medicinal herb, target diseases, International Patent Classification (IPC), model of experiment and extracting methods were analyzed. Results : A total of 379 patents were retrieved. Based on our inclusion/exclusion criteria, 297 patents were excluded. Of 82 included patents, 27 patents did not include experiments using pharmacopuncture, and 9 patents were invented for treating animals such as pig or calf. In IPC analysis, Bee Venom, Panax (ginseng), Angelica, and Paeoniaceae were used frequently. Musculoskeletal diseases were the most targeted diseases followed by nervous diseases. For extracting, hot water extraction, distillation extraction, and solvent extraction using alcohol, ethanol, or methanol for solvent were commonly used. Conclusions : These data are useful for inventing new patent and extending range of pharmacopuncture in clinical use, however, more systematically analyzed patent studies and pharmacopuncture-related studies for new application on various diseases are needed in further studies.

컴퓨터 시각(視覺)에 의거한 측정기술(測定技術) 및 측정오차(測定誤差)의 분석(分析)과 보정(補正) (Computer Vision Based Measurement, Error Analysis and Calibration)

  • 황헌;이충호
    • Journal of Biosystems Engineering
    • /
    • 제17권1호
    • /
    • pp.65-78
    • /
    • 1992
  • When using a computer vision system for a measurement, the geometrically distorted input image usually restricts the site and size of the measuring window. A geometrically distorted image caused by the image sensing and processing hardware degrades the accuracy of the visual measurement and prohibits the arbitrary selection of the measuring scope. Therefore, an image calibration is inevitable to improve the measuring accuracy. A calibration process is usually done via four steps such as measurement, modeling, parameter estimation, and compensation. In this paper, the efficient error calibration technique of a geometrically distorted input image was developed using a neural network. After calibrating a unit pixel, the distorted image was compensated by training CMLAN(Cerebellar Model Linear Associator Network) without modeling the behavior of any system element. The input/output training pairs for the network was obtained by processing the image of the devised sampled pattern. The generalization property of the network successfully compensates the distortion errors of the untrained arbitrary pixel points on the image space. The error convergence of the trained network with respect to the network control parameters were also presented. The compensated image through the network was then post processed using a simple DDA(Digital Differential Analyzer) to avoid the pixel disconnectivity. The compensation effect was verified using known sized geometric primitives. A way to extract directly a real scaled geometric quantity of the object from the 8-directional chain coding was also devised and coded. Since the developed calibration algorithm does not require any knowledge of modeling system elements and estimating parameters, it can be applied simply to any image processing system. Furthermore, it efficiently enhances the measurement accuracy and allows the arbitrary sizing and locating of the measuring window. The applied and developed algorithms were coded as a menu driven way using MS-C language Ver. 6.0, PC VISION PLUS library functions, and VGA graphic functions.

  • PDF

비알코올성 지방간 질환에 대한 침치료의 효과 : 체계적 고찰 (Clinical Effectiveness of Acupuncture in the Treatment of Non-Alcoholic Fatty Liver Disease: A Systematic Review)

  • 현준;이주복;김소연;한창우
    • 대한한방내과학회지
    • /
    • 제39권6호
    • /
    • pp.1206-1224
    • /
    • 2018
  • Purpose: This systematic review was planned and performed in order to determine the clinical effectiveness of acupuncture for non-alcoholic fatty liver disease (NAFLD). Methods: We searched related randomized controlled trials in several medical online databases, including China National Knowledge Infrastructure (CNKI), Excerpta Medica dataBASE (EMBASE), Public/Publisher MEDLINE (PubMed), Cochrane Central Register of Controlled Trials (CENTRAL), National Digital Science Library (NDSL), and Research Information Sharing Service (RISS). NAFLD related outcomes were extracted from the included trials and meta-analyzed. Results: From the 8 included trials, the values of the following examinations were extracted: liver ultrasonography, liver CT, body fat CT, aspartate transaminase (AST), alanine transaminase (ALT), gamma-glutamyltransferase (GGT), total cholesterol (TC), triglyceride (TG), low density lipoprotein (LDL) cholesterol, high density lipoprotein (HDL) cholesterol, fasting blood sugar (FBS), hosmeostatic model assessment for insulin resistance (HOMA-IR), weight, body mass index (BMI), waist hip ratio (WHR), obesity degree, body fat mass, body fat rate, leptin, malondialdehyde (MDA), and super oxide dismutase (SOD). In the 4 outcomes, cure rate in liver ultrasonography (RR=1.56; 95%CI=1.05~2.31; P=0.03), cure rate in liver CT (RR=2.23; 95%CI=1.33~3.72; P=0.002), TC (MD=-0.78; 95%CI=-1.41~-0.15; P=0.02), and TG (MD=-2.05; 95%CI=-3.88~-0.21; P=0.03), acupuncture was more effective than the control intervention. Conclusions: In this meta-analysis, acupuncture relieved hepatic steatosis, and reduced TC, and TG in NAFLD patients. more well-planned studies are still needed due to the heterogeneity and the considerable methodological flaws in the analyzed trials.

KOMUChat : 인공지능 학습을 위한 온라인 커뮤니티 대화 데이터셋 연구 (KOMUChat: Korean Online Community Dialogue Dataset for AI Learning)

  • 유용상;정민화;이승민;송민
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.219-240
    • /
    • 2023
  • 사용자가 만족감을 느끼며 상호작용할 수 있는 대화형 인공지능을 개발하기 위한 노력이 이어지고 있다. 대화형 인공지능 개발을 위해서는 사람들의 실제 대화를 반영한 학습 데이터를 구축하는 것이 필요하지만, 기존 데이터셋은 질문-답변 형식이 아니거나 존대어를 사용하여 사용자가 친근감을 느끼기 어려운 문체로 구성되어 있다. 이에 본 논문은 온라인 커뮤니티에서 수집한 30,767개의 질문-답변 문장 쌍으로 구성된 대화 데이터셋(KOMUChat)을 구축하여 제안한다. 본 데이터셋은 각각 남성, 여성이 주로 이용하는 연애상담 게시판의 게시물 제목과 첫 번째 댓글을 질문-답변으로 수집하였다. 또한, 자동 및 수동 정제 과정을 통해 혐오 데이터 등을 제거하여 양질의 데이터셋을 구축하였다. KOMUChat의 타당성을 검증하기 위해 언어 모델에 본 데이터셋과 벤치마크 데이터셋을 각각 학습시켜 비교분석하였다. 그 결과 답변의 적절성, 사용자의 만족감, 대화형 인공지능의 목적 달성 여부에서 KOMUChat이 벤치마크 데이터셋의 평가 점수를 상회했다. 본 연구는 지금까지 제시된 오픈소스 싱글턴 대화형 텍스트 데이터셋 중 가장 대규모의 데이터이며 커뮤니티 별 텍스트 특성을 반영하여 보다 친근감있는 한국어 데이터셋을 구축하였다는 의의를 가진다.

한국어 음성인식 플랫폼 (ECHOS) 개발 (Development of a Korean Speech Recognition Platform (ECHOS))

  • 권오욱;권석봉;장규철;윤성락;김용래;장광동;김회린;유창동;김봉완;이용주
    • 한국음향학회지
    • /
    • 제24권8호
    • /
    • pp.498-504
    • /
    • 2005
  • 교육 및 연구 목적을 위하여 개발된 한국어 음성인식 플랫폼인 ECHOS를 소개한다. 음성인식을 위한 기본 모듈을 제공하는 BCHOS는 이해하기 쉽고 간단한 객체지향 구조를 가지며, 표준 템플릿 라이브러리 (STL)를 이용한 C++ 언어로 구현되었다. 입력은 8또는 16 kHz로 샘플링된 디지털 음성 데이터이며. 출력은 1-beat 인식결과, N-best 인식결과 및 word graph이다. ECHOS는 MFCC와 PLP 특징추출, HMM에 기반한 음향모델, n-gram 언어모델, 유한상태망 (FSN)과 렉시컬트리를 지원하는 탐색알고리듬으로 구성되며, 고립단어인식으로부터 대어휘 연속음성인식에 이르는 다양한 태스크를 처리할 수 있다. 플랫폼의 동작을 검증하기 위하여 ECHOS와 hidden Markov model toolkit (HTK)의 성능을 비교한다. ECHOS는 FSN 명령어 인식 태스크에서 HTK와 거의 비슷한 인식률을 나타내고 인식시간은 객체지향 구현 때문에 약 2배 정도 증가한다. 8000단어 연속음성인식에서는 HTK와 달리 렉시컬트리 탐색 알고리듬을 사용함으로써 단어오류율은 $40\%$ 증가하나 인식시간은 0.5배로 감소한다.

취약성 분석 알고리즘을 이용한 학습자 중심의 코스 스케쥴링 멀티 에이전트 시스템의 설계 (Design of Multi-agent System for Course Scheduling of Learner-oriented using Weakness Analysis Algorithm)

  • 김태석;이종희;이근왕;오해석
    • 정보처리학회논문지A
    • /
    • 제8A권4호
    • /
    • pp.517-522
    • /
    • 2001
  • 웹의 등장은 멀티미디어 기술 및 컴퓨터 통신 기술 개발의 가속화 및 이를 응용한 컨텐츠 개발에 촉진제 역할을 하게되었다. 또한 웹기반 교육 시스템의 연구에서도 전자도서관과 LOD 기술을 접목한 연구들이 활발히 진행되어 왔다. 최근에는 교수-학습 활동에서의 새로운 형태인 웹을 기반으로 한 교육(WBI : Web-Based Instruction)이라는 교수 모형이 제시되기에 이르렀다. 또한, 학습자의 요구에 맞는 코스웨어의 주문이 증가되고 있는 추세이며 그에 따라 웹 기반 교육 시스템에 효율적이고 자동화된 교육 에이전트의 필요성이 인식되고 있다. 그러나 현재 연구되고 있는 많은 교육 시스템들은 학습자 성향에 맞는 코스를 적절히 서비스해 주지 못할 뿐 아니라 지속적인 피드백과 학습자가 코스를 학습함에 있어서 취약한 부분을 재학습 할 수 있도록 도와주는 서비스를 원활히 제공하지 못하고 있다. 본 논문에서는 취약성 분석 알고리즘을 이용한 학습자 중심의 코스 스케쥴링 멀티 에이전트 시스템의 설계를 제안한다. 제안한 시스템은 먼저 학습자의 학습을 지속적으로 모니터링하고 평가하여 개인 학습자의 학습 성취도를 계산하며, 이 성취도를 에이전트의 스케쥴에 적용하여 학습자에게 적합한 코스를 제공하고, 학습자는 이러한 코스에 따라 능력에 맞는 반복된 학습을 통하여 적극적인 완전학습을 수행하게 된다.

  • PDF

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

주요 식중독 원인 미생물들에 대한 용량-반응 모델 연구 (A Study on Dose-Response Models for Foodborne Disease Pathogens)

  • 박명수;조준일;이순호;박경진
    • 한국식품위생안전성학회지
    • /
    • 제29권4호
    • /
    • pp.299-304
    • /
    • 2014
  • 본 연구는 정량적 미생물 위해평가(Quantitative microbial risk assessment: QMRA)에 절대적으로 필요하지만 국내의 경우 관련 정보 및 자료가 부족한 주요 식중독 원인 미생물에 대한 용량-반응모델(dose-response models) 관련 자료를 수집 정리하여 가장 적합한 용량-반응 모델을 분석 및 선정하였다. 1980년부터 2012년까지 식중독 발생과 관련이 있는 26종의 세균, 9종의 바이러스, 8종의 원생동물관련 용량-반응 모델 및 위해평가 자료들을 중심으로 국내 NDSL (National Digital Science Library), 국외 PubMed, ScienceDirect database에서 총 193개의 논문을 추출하여 정리하였다. 조사된 자료로부터 세균별, 바이러스별, 원생동물별 용량-반응 모델의 미생물 위해평가 활용여부를 확인하고, 위해평가에 활용된 모델들을 메타분석(meta-analysis)에서 사용되고 있는 Relative frequency (fi, 상대빈도 값)를 계산하여 가장 적정한 용량-반응 모델을 제시하였다. 주요 식중독 원인 미생물들인 Campylobacter jejuni, pathogenic E. coli O157:H7 (EHEC / EPEC / ETEC), Listeria monocytogenes, Salmonella spp., Shigella spp., Staphylococcus aureus, Vibrio parahaemolyticus, Vibrio cholera, Rota virus, Cryptosporidium pavum의 적정 용량-반응 모델은 beta-poisson (${\alpha}=0.15$, ${\beta}=7.59$, fi = 0.72), beta-poisson (${\alpha}=0.49$, ${\beta}=1.81{\times}10^5$, fi = 0.67) / beta-poisson (${\alpha}=0.22$, ${\beta}=8.70{\times}10^3$, fi = 0.40) / beta-poisson (${\alpha}=0.18$, ${\beta}=8.60{\times}10^7$, fi = 0.60), exponential ($r=1.18{\times}10^{-10}$, fi = 0.14), beta-poisson (${\alpha}=0.11$, ${\beta}=6,097$, fi = 0.09), beta-poisson (${\alpha}=0.21$, ${\beta}=1,120$, fi = 0.15), exponential ($r=7.64{\times}10^{-8}$, fi = 1.00), beta-poisson (${\alpha}=0.17$, ${\beta}=1.18{\times}10^5$, fi = 1.00), beta-poisson (${\alpha}=0.25$, ${\beta}=16.2$, fi = 0.57), exponential ($r=1.73{\times}10^{-2}$, fi = 1.00), and exponential ($r=1.73{\times}10^{-2}$, fi = 0.17)로 각각 선정하였다. 본 연구에서 제시된 용량-반응 모델들은 향후 국내 QMRA 관련 연구 및 진행에 많은 도움이 될 것으로 기대된다.

한국의 기록관리 현황 및 발전방향에 관한 연구 (A Study on the Archives and Records Management in Korea - Overview and Future Direction -)

  • 한상완;김성수
    • 한국기록관리학회지
    • /
    • 제2권2호
    • /
    • pp.1-38
    • /
    • 2002
  • 이 연구는 기록물관리법의 제정과 관련하여 한국의 공공기관 및 기록관리학계 그 실무단체들의 기록관리 활동현황과 그 발전방향에 대하여, '1)정부기관 기록관리의 활동현황과 발전방향, 2)민간차원 기록관리의 활동현황과 발전방향'으로 2구분하고, 이를 각각 고찰한 것이다. 그 결과, 1) <정부기록보존소>는 국가 중앙기록물관리기관의 기능과 사명을 완수하기 위하여, <정부기록보존소>가 현재 추진하고 있는 전문서고의 신축 문제와, 이 신축서고에 국가의 상징시설로서의 <대통령기록관>을 입주시키는 문제, 향후 <정부기록보존소>의 위상(位相) 정립 문제를 가장 중점적(重點的)으로 완결(完結)하여야 할 것을 논술하였다. 그러기 위하여 현재의 <정부기록보존소>는, 이 기관이 장차 국가 중앙기록물관리기관으로서 장관급 또는 최소한 차관급 이상(以上)이 관장(管掌)하는 청(廳)단위 이상의 독립국가기관 예컨데 <국가기록관리청(國家記錄管理廳)> 등의 명칭으로 그 위상이 제고(提高)되도록 조처(措處)하여야 할 것임을 주장하였다. 그리하여 이 기관이 대통령 지속기구 등으로 편입되면서 그 업무의 독립성과 자율성이 보장되어야 하는 방안이 가장 바람직할 것임을 주장하였다. 2) <한국기록관리협회>는 1)종래의 기록매체인 종이기록물의 보존관리에 관한 문제, 2)컴퓨터를 비롯한 뉴미디어에 의한 기록물의 관리보존문제, 3)기록물 관리 보존의 시설 및 장비의 문제, 4)기록보존 관리의 전문인력 교육 양성 문제, 5)기록관리의 제도 및 정책의 문제 등의 방향으로 그 발전에 지속적으로 매진하여야 할 것이다. 이러한 점에서 <한국기록관리협회>는 그 개인회원과 기업체회원 등이 합심하여 우리나라 기록보존의 발전에 밑거름이 되어야 할 것임을 강조하였다. 3) <한국기록관리학회>가 주최한 3차에 걸친 국제학술대회의 의의와 그 실적에 대한 분석 등을 고찰하였다. <한국기록관리학회>는 '제1회 국제학술대회'에서 한 중 일 동양삼국의 기록관리활동의 현황을 파악하고 이에 기록관리학의 연구 및 교육과정 등 한국기록관리학이 나아가야 할 방향의 설정하였다. '제2회 국제학술대회'에서 "지식경영과 메터데이터의 활용"이라는 심포지움을 개최하여 지식기반정보사회에서 기록관리학과 문헌정보학의 소임과 역할을 다짐하였다. '제3회 국제학술대회'에서는 미국을 위시한 독일과 네덜란드 등 서구(西歐)의 디지털(전자)기록물의 보존관리 등 세계적인 첨단 기록관리학의 발전동향을 우선적으로 소개 파악하기 위하여 전자기록물의 관리 보존에 관하여 중점적으로 고찰하였다. 아울러 동양 삼국 기록관리학 미래의 발전방향을 조명(照明)하였다. 그리하여 <한국기록관리학회>는 장차 한국기록관리학의 발전과 관련한 여러 이론적 연구와 그 실무활동에 대한 근거를 꾸준하게 제시하여 주어야 함과, 우수한 기록관리 전문인력을 배출할 수 있는 합리적인 교육과정 등을 연구 제시하여야 함도 파악하였다. 4) 한국기록관리학회지 수록논문의 분석에서는, 기록관리학의 각 영역을 6구분하고, 학회지에 수록된 논문들을 분석하였다. 그 결과, 특기할만한 사항으로는 (1)'기록관리학의 제도와 정책'에서 차후 <지방기록보존소> 및 <자료관> 설립과 관련한 연구가 필요함을 파악하였다. 본 분석에서는 이들 <자료관>등을 설립할 때에는 그 지방의 역사와 특성을 고려하여 가장 강점(强點)이 있는 주제의 기록물들을 특성화(特性化)시키는 방안이 가장 바람직할 것임을 주장하였다. (2)'기록관리학 전문 교과과정 및 인력제도'에서, 석사학위 이상의 기록물관리 전문요원은 기록관리의 현장에서 차후 관리직으로 나아가야 함을 지적하고, 오히려 기록관리학 학부를 졸업하고 기록물관리 현장에서 직접 그 업무를 수행할 수 있는 실무전공자가 절실하게 요구되는 현실임을 주장하였다. 따라서 문헌정보학전공을 개설하고 있는 대학교에서 기록관리학전공을 신설하고, 이에 따라 기록관리학 학사를 배출함으로써 이 분야의 국가적인 수요에 부응할 필요가 절실함을 주장하였다. 또한 기록관리전문요원의 자격은 완화되어야 함을 주장하였다.