• 제목/요약/키워드: 기계어

검색결과 468건 처리시간 0.03초

공기 온습도가 공조용 가습 소자의 가습 성능에 미치는 영향에 대한 실험 연구 (An Experimental Study on the Effect of Air Temperature and Humidity on Humidification Performance of the Humidifying Element Used for Air Conditioning)

  • 김내현
    • 한국산학기술학회논문지
    • /
    • 제20권2호
    • /
    • pp.732-740
    • /
    • 2019
  • 가습 소자를 이용한 증발식 가습은 건물이나 데이터 센터의 공조에 널리 사용되고 있다. 가습 소자의 성능은 가습 효율로 나타내는데 이 효율은 공기의 온습도나 물 온도에 무관하게 사용되고 있다. 본 연구에서는 데이터 센터와 건물 공조의 두 공기 조건에 대하여 셀룰로오스/PET, Glasdek의 두 소자를 사용하여 전벙 풍속과 물 온도를 변화시키며 일련의 실험을 수행하였다. 실험 결과 측정된 가습 효율은 공기 조건과 물 온도에 따라 다르게 나타났다. 심지어 건물 조건에서는 소자의 입구부에서 감습이 나타나기도 하였는데 그 이유는 공급수 온도가 입구 공기의 노점온도보다 낮았기 때문이었다. 건물 조건에서는 공급수 온도와 공기의 노점 온도 차이가 증가할수록 가습 효율은 감소하였다. 이로부터 가습 효율 모델을 적절히 세우려면 길이 방향으로 수분 전달량이 변화하는 입구 영역에 대한 해석이 중요하다고 판단된다. 셀룰로오스/PET 소자에 대하여 성능 해석을 수행한 결과 Sherwood 수는 적절히 예측하였으나 마찰 손실은 과대 예측하였다. 이는 해석시 채널 형상을 단순한 삼각형으로 가정하고 소자 표면에 형성된 액막의 영향을 무시한 때문으로 판단된다.

공조기 운전 조건이 가습 소자의 성능에 미치는 영향에 대한 실험 연구 (An Experimental Study for the Effect of Operating Condition of the Air Handling Unit on the Performance of Humidifying Elements)

  • 김내현
    • 한국산학기술학회논문지
    • /
    • 제19권11호
    • /
    • pp.326-331
    • /
    • 2018
  • 최근 들어 건물이나 데이터 센터의 공조에 기화식 가습기가 널리 사용된다. 일반적으로 가습 효율은 외기 조건에 관계없이 동일하게 적용된다. 하지만 이 부분에 대해서는 확인이 필요하다. 본 연구에서는 일반 건물과 데이터 센터의 설계 온습도 조건에서 일련의 실험을 수행하고 상기 가정이 적절한지를 판단하였다. 실험에 사용된 소자는 cellulose/PET 재질로 깊이 100mm, 200 mm, 300 mm 세 종류이고 전방 풍속 1.0 m/s에서 4.5 m/s 사이에서 수행되었다. 실험 결과 가습 효율은 외기 조건에 따라 차이가 났다. 데이터 센터 ($25^{\circ}C$ DBT, $15^{\circ}C$ WBT) 조건에서 건물 공조 ($35^{\circ}C$ DBT, $21^{\circ}C$ WBT) 조건보다 크게 나타났는데 그 이유는 입구 영역에서 수분 전달 성능의 차이 때문이다. 심지어 건물 공조 조건에서는 입구 영역에서 제습이 일어났다. 또한 공급수 온도가 외기 공기의 습구온도에 근접할수록 가습 효율이 증가함을 확인하였다. 따라서 가습소자의 성능을 적절히 예측하기 위해서는 입구 영역에 대한 해석 모델이 포함되어야 한다. 한편 소자의 두께가 100 mm에서 200 mm로 되면 가습효율이 29% 증가하고 300 mm가 되면 42% 증가한다. 하지만 압력 손실도 47%, 86% 증가한다.

기계학습 기반 토픽모델링을 이용한 학술지 "자원환경지질"의 연구주제 분류 및 연구동향 분석 (Topic Model Analysis of Research Themes and Trends in the Journal of Economic and Environmental Geology)

  • 김태용;박혜민;허준용;양민준
    • 자원환경지질
    • /
    • 제54권3호
    • /
    • pp.353-364
    • /
    • 2021
  • 국내 지질학의 연구 분야는 20세기 중반 이후부터 꾸준하게 발전되어왔다. 학술지 "자원환경지질"은 국내 지질학을 대표하는 역사가 긴 학술지로 지질학을 바탕으로 하는 융복합연구 논문이 게재되고 있다. 본 연구는 학술지 "자원환경지질"에 게재된 논문을 대상으로 문헌 고찰(literature review)을 수행하여 지질학의 역사와 발전에 대해 논의하고자 한다. 1968년부터 2020년까지 총 2,571편의 논문 제목, 주제어, 다국어 초록을 수집하였으며, Latent Dirichlet Allocation (LDA) 기반 토픽모델링을 실시하여 연구 주제를 분류하고 연구 동향과 주제간 연관성을 확인하였다. 학술지 "자원환경지질"은 총 8개의 연구주제('암석학 및 지구화학', '수문학 및 수리지질학', '광상학', '화산학', '토양오염 및 복원학', '기초지질 및 구조지질학', '지구물리 및 물리탐사', '점토광물')로 분류할 수 있었다. 1994년 이전에는 '광상학', '화산학', '기초지질 및 구조지질학'의 연구주제들이 활발하게 연구되었으며, 이후 '수문학 및 수리지질학', '토양오염 및 복원학', '지구물리 및 물리탐사', '점토광물'의 연구주제들이 성행하였다. 연관성분석(network analysis)결과, 학술지 "자원환경지질"은 '광상학'을 기반으로 융복합적 연구 논문들이 게재되었다는 것을 확인하였다. 본 연구의 결과는 지질학을 다루는 연구자들에게 문헌 고찰의 새로운 방법론을 제시하여 지질학의 역사에 대한 이해를 제공했음에 의의가 있다.

Back TranScription(BTS)기반 데이터 구축 검증 연구 (A Study on Verification of Back TranScription(BTS)-based Data Construction)

  • 박찬준;서재형;이설화;문현석;어수경;임희석
    • 한국융합학회논문지
    • /
    • 제12권11호
    • /
    • pp.109-117
    • /
    • 2021
  • 최근 인간과 컴퓨터의 상호작용(HCI)을 위한 수단으로 음성기반 인터페이스의 사용률이 높아지고 있다. 이에 음성인식 결과에 오류를 교정하기 위한 후처리기에 대한 관심 또한 높아지고 있다. 그러나 sequence to sequence(S2S)기반의 음성인식 후처리기를 제작하기 위해서는 데이터 구축을 위해 human-labor가 많이 소요된다. 최근 기존의 구축 방법론의 한계를 완화하기 위하여 음성인식 후처리기를 위한 새로운 데이터 구축 방법론인 Back TranScription(BTS)이 제안되었다. BTS란 TTS와 STT 기술을 결합하여 pseudo parallel corpus를 생성하는 기술을 의미한다. 해당 방법론은 전사자(phonetic transcriptor)의 역할을 없애고 방대한 양의 학습 데이터를 자동으로 생성할 수 있기에 데이터 구축에 있어서 시간과 비용을 단축할 수 있다. 본 논문은 기존의 BTS 연구를 확장하여 어떠한 기준 없이 데이터를 구축하는 것보다 어투와 도메인을 고려하여 데이터 구축을 해야함을 실험을 통해 검증을 진행하였다.

의료영상 분석에서 인공지능 이용 동향 (Trends in the Use of Artificial Intelligence in Medical Image Analysis)

  • 이길재;이태수
    • 한국방사선학회논문지
    • /
    • 제16권4호
    • /
    • pp.453-462
    • /
    • 2022
  • 본 논문에서는 의료 영상 분석 분야에서 이용되고 있는 AI(Artificial Intelligence)기술을 문헌 검토를 통해 분석하였다. 문헌 검색은 중심어(keyword)를 사용하여 PubMed, ResearchGate, Google 및 Cochrane Review의 문헌 검색을 수행했다. 문헌 검색을 통해 114개의 초록을 검색하였고 그 중 16개의 중복된 것을 제외하고 98개의 초록을 검토했다. 검토된 문헌에서 AI가 응용되고 있는 분야는 분류(Classification), 국소화(Localization), 질병의 탐지(Detection), 질병의 분할(Segmentation), 합성 영상의 적합도(Fit degree) 등으로 나타났다. 기계학습(ML: Machine Learning)을 위한 모델은 특징 추출을 한 후 신경망의 네트워크에 특징 값을 입력하는 방식은 지양되는 것으로 나타났다. 그 대신에 신경망의 은닉층을 여러 개로 하는 심층학습(DL: Deep Learning) 방식으로 변화되고 있는 것으로 나타났다. 그 이유는 컴퓨터의 메모리 량의 증가와 계산속도의 향상, 빅 데이터의 구축 등으로 특징 추출을 DL 과정에서 처리하는 것으로 사료된다. AI를 이용한 의료영상의 분석을 의료에 적용하기 위해서는 의사의 역할이 중요하다. 의사는 AI 알고리즘의 예측을 해석하고 분석할 수 있어야 한다. 이러한 이해를 위해서는 현재 의사를 위한 추가 의학 교육 및 전문성 개발과 의대에 재학 중인 학습자를 위한 개정된 커리큘럼이 필요해 보인다.

언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축 (Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information)

  • 이준범;김소언;박성배
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권3호
    • /
    • pp.125-132
    • /
    • 2022
  • 문장 압축은 원본 문장의 중요한 의미는 유지하면서 길이가 축소된 압축 문장을 생성하는 자연어처리 태스크이다. 문법적으로 적절한 문장 압축을 위해, 초기 연구들은 사람이 정의한 언어 규칙을 활용하였다. 또한 시퀀스-투-시퀀스 모델이 기계 번역과 같은 다양한 자연어처리 태스크에서 좋은 성능을 보이면서, 이를 문장 압축에 활용하고자 하는 연구들도 존재했다. 하지만 언어 규칙을 활용하는 연구의 경우 모든 언어 규칙을 정의하는 데에 큰 비용이 들고, 시퀀스-투-시퀀스 모델 기반 연구의 경우 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 이를 해결할 수 있는 방법으로 사전 학습된 언어 모델인 BERT를 활용하는 문장 압축 모델인 Deleter가 제안되었다. Deleter는 BERT를 통해 계산된 perplexity를 활용하여 문장을 압축하기 때문에 문장 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않다는 장점이 있다. 하지만 Deleter는 perplexity만을 고려하여 문장을 압축하기 때문에, 문장에 속한 단어들의 언어 정보를 반영하여 문장을 압축하지 못한다. 또한, perplexity 측정을 위한 BERT의 사전 학습에 사용된 데이터가 압축 문장과 거리가 있어, 이를 통해 측정된 perplexity가 잘못된 문장 압축을 유도할 수 있다는 문제점이 있다. 이를 해결하기 위해 본 논문은 언어 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 계산에 반영하는 방법을 제안한다. 또한 고유명사가 자주 포함되어 있으며, 불필요한 수식어가 생략되는 경우가 많은 뉴스 기사 말뭉치로 BERT를 fine-tuning하여 문장 압축에 적절한 perplexity를 측정할 수 있도록 하였다. 영어 및 한국어 데이터에 대한 성능 평가를 위해 본 논문에서 제안하는 LI-Deleter와 비교 모델의 문장 압축 성능을 비교 실험을 진행하였고, 높은 문장 압축 성능을 보임을 확인하였다.

랜섬웨어 공격탐지를 위한 신뢰성 있는 동적 허니팟 파일 생성 시스템 구현 (Implementation of reliable dynamic honeypot file creation system for ransomware attack detection)

  • 국경완;류연승;신삼범
    • 융합보안논문지
    • /
    • 제23권2호
    • /
    • pp.27-36
    • /
    • 2023
  • 최근 몇 년 동안 랜섬웨어 공격이 사회 공학, 스피어피싱, 심지어 기계 학습과 같은 전술을 사용하여 특정 개인이나 조직을 대상으로 하는 공격의 정교함과 더불어 더욱 조직화 되고 전문화되고 있으며 일부는 비즈니스 모델로 운영되고 있다. 이를 효과적으로 대응하기 위해 심각한 피해를 입히기 전에 공격을 감지하고 예방할 수 있는 다양한 연구와 솔루션들이 개발되어 운영되고 있다. 특히, 허니팟은 조기 경고 및 고급 보안 감시 도구 역할 뿐만 아니라, IT 시스템 및 네트워크에 대한 공격 위험을 최소화하는 데 사용할 수 있으나, 랜섬웨어가 미끼파일에 우선적으로 접근하지 않은 경우나, 완전히 우회한 경우에는 효과적인 랜섬웨어 대응이 제한되는 단점이 있다. 본 논문에서는 이러한 허니팟을 사용자 환경에 최적화하여 신뢰성 있는 실시간 동적 허니팟 파일을 생성, 공격자가 허니팟을 우회할 가능성을 최소화함으로써 공격자가 허니팟 파일이라는 것을 인지하지 못하도록 하여 탐지율을 높일 수 있도록 하였다. 이를 위해 동적 허니팟 생성을 위한 기본 데이터수집 모델 등 4개의 모델을 설계하고 (기본 데이터 수집 모델 / 사용자 정의 모델 / 표본 통계모델 / 경험치 축적 모델) 구현하여 유효성을 검증하였다.

Word2Vec을 활용한 제품군별 시장규모 추정 방법에 관한 연구 (A Study on Market Size Estimation Method by Product Group Using Word2Vec Algorithm)

  • 정예림;김지희;유형선
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.1-21
    • /
    • 2020
  • 인공지능 기술의 급속한 발전과 함께 빅데이터의 상당 부분을 차지하는 비정형 텍스트 데이터로부터 의미있는 정보를 추출하기 위한 다양한 연구들이 활발히 진행되고 있다. 비즈니스 인텔리전스 분야에서도 새로운 시장기회를 발굴하거나 기술사업화 주체의 합리적 의사결정을 돕기 위한 많은 연구들이 이뤄져 왔다. 본 연구에서는 기업의 성공적인 사업 추진을 위해 핵심적인 정보 중의 하나인 시장규모 정보를 도출함에 있어 기존에 제공되던 범위보다 세부적인 수준의 제품군별 시장규모 추정이 가능하고 자동화된 방법론을 제안하고자 한다. 이를 위해 신경망 기반의 시멘틱 단어 임베딩 모델인 Word2Vec 알고리즘을 적용하여 개별 기업의 생산제품에 대한 텍스트 데이터를 벡터 공간으로 임베딩하고, 제품명 간 코사인 거리(유사도)를 계산함으로써 특정한 제품명과 유사한 제품들을 추출한 뒤, 이들의 매출액 정보를 연산하여 자동으로 해당 제품군의 시장규모를 산출하는 알고리즘을 구현하였다. 실험 데이터로서 통계청의 경제총조사 마이크로데이터(약 34만 5천 건)를 이용하여 제품명 텍스트 데이터를 벡터화 하고, 한국표준산업분류 해설서의 산업분류 색인어를 기준으로 활용하여 코사인 거리 기반으로 유사한 제품명을 추출하였다. 이후 개별 기업의 제품 데이터에 연결된 매출액 정보를 기초로 추출된 제품들의 매출액을 합산함으로써 11,654개의 상세한 제품군별 시장규모를 추정하였다. 성능 검증을 위해 실제 집계된 통계청의 품목별 시장규모 수치와 비교한 결과 피어슨 상관계수가 0.513 수준으로 나타났다. 본 연구에서 제시한 모형은 의미 기반 임베딩 모델의 정확성 향상 및 제품군 추출 방식의 개선이 필요하나, 표본조사 또는 다수의 가정을 기반으로 하는 전통적인 시장규모 추정 방법의 한계를 뛰어넘어 텍스트 마이닝 및 기계학습 기법을 최초로 적용하여 시장규모 추정 방식을 지능화하였다는 점, 시장규모 산출범위를 사용 목적에 따라 쉽고 빠르게 조절할 수 있다는 점, 이를 통해 다양한 분야에서 수요가 높은 세부적인 제품군별 시장정보 도출이 가능하여 실무적인 활용성이 높다는 점에서 의의가 있다.

계지복령환(桂枝茯笭丸) 및 그 구성약물(構成藥物)의 혈소판응집억제(血小板凝集抑制)에 관(關)한 연구(硏究) (Effect of Geijibokryunghwan and each constituent herb on inhibition of platelet aggregation)

  • 김종구;박선동;박원환
    • 동국한의학연구소논문집
    • /
    • 제8권2호
    • /
    • pp.115-129
    • /
    • 2000
  • 동물성(動物性) 지방섭취량(脂肪攝取量)의 증가(增加), 운동부족(運動不足), 비만(肥滿), 스트레스의 가중(加重), 고령화(高齡化)의 증가(增加) 등(等)의 원인(原因)으로 순환기계질환(循環器系疾患)의 발병률(發病率)이 증가(增加)하고 있으며, 이러한 순환기계질환(循環器系疾患)의 위험인자(危險因子)로서 혈전증(血栓症)이 중요(重要)하게 대두되고 있다. 특히 최근 문제시되고 있는 협심증(狹心症)이나 심근경새(心筋梗塞)등의 허혈성(虛血性) 심질환(心疾患)은 혈소판응집(血小板凝集)에 의해 일어나는 혈전형성(血栓形成)에 기인(起因)하고 있다. 한의학(韓醫學)에서 혈전증(血栓症)은 어혈(瘀血)의 범주(範疇)에 속(屬)하며, 어혈(瘀血)은 각종 병리적(病理的) 원인(原因)에 의해 발생한 전신성(全身性) 또는 국소성(局所性)의 혈액순환(血液循環) 장애(障碍) 또는 혈류정체(血流停滯)와 그에 수반되는 일련의 증후(症候)를 나타내며, 경계정충, 고창(鼓脹), 적취(積聚), 미하, 전광(癲狂), 중풍등(中風等)의 발병원인(發病原因)이 된다. 또한 어혈(瘀血)에 의한 각종 증후(症候)에는 활혈거어제(活血祛瘀劑) 또는 구어혈제(驅瘀血劑)등이 사용되고 있다. 본(本) 연구(硏究)에서는 한의학(韓醫學)에서 어혈증(瘀血症)으로 야기(惹起)되는 여러 가지 증상(症狀)의 개선에 사용되는 구어혈제(驅瘀血劑)들의 혈소판응집(血小板凝集)에 미치는 영향을 검색하기 위하여 계지복령환(Geijibokryunghwan; GBH) 및 그 구성약물(構成藥物)을 사용(使用)하였다. 계지복령환은 "금궤요략" 에 있는 방(方)으로써 거사부상정(祛邪不傷正)하고 조기한열(調氣寒熱)하여 예로부터 구어혈제(驅瘀血劑)로 사용되어 왔다. 이에 계지복령환 및 그 구성약제(構成藥劑)의 ADP, AA 또는 collagen으로 유도되는 혈소판응집(血小板凝集)에 대하여 억제효과(抑制效果)를 탐색(探索)한 결과(結果), 계지복령환 및 개별(個別) 구성약물(構成藥物)의 혈소판응집억제작용(血小板凝集抑制作用)을 확인하였고, 혈소판응집(血小板凝集)으로 야기(惹起)되는 혈전증(血栓症)등에 계지복령환 및 개별(個別) 구성약물(構成藥物)은 매우 임상실험적(臨床實驗的) 응용가치(應用價値)가 있는 것으로 생각되었다.

  • PDF

지식베이스 확장을 위한 멀티소스 비정형 문서에서의 정보 추출 시스템의 개발 (Development of Information Extraction System from Multi Source Unstructured Documents for Knowledge Base Expansion)

  • 최현승;김민태;김우주;신동욱;이용훈
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.111-136
    • /
    • 2018
  • 지식베이스를 구축하는 작업은 도메인 전문가가 온톨로지 스키마를 이해한 뒤, 직접 지식을 정제하는 수작업이 요구되는 만큼 비용이 많이 드는 활동이다. 이에, 도메인 전문가 없이 다양한 웹 환경으로부터 질의에 대한 답변 정보를 추출하기 위한 자동화된 시스템의 연구개발의 필요성이 제기되고 있다. 기존의 정보 추출 관련 연구들은 웹에 존재하는 다양한 형태의 문서 중 학습데이터와 상이한 형태의 문서에서는 정보를 효과적으로 추출하기 어렵다는 한계점이 존재한다. 또한, 기계 독해와 관련된 연구들은 문서에 정답이 있는 경우를 가정하고 질의에 대한 답변정보를 추출하는 경우로서, 문서의 정답포함 여부를 보장할 수 없는 실제 웹의 비정형 문서로부터의 정보추출에서는 낮은 성능을 보인다는 한계점이 존재한다. 본 연구에서는 지식베이스 확장을 위하여 웹에 존재하는 멀티소스 비정형 문서로부터 질의에 대한 정보를 추출하기 위한 시스템의 개발 방법론을 제안하고자 한다. 본 연구에서 제안한 방법론은 "주어(Subject)-서술어(Predicate)"로 구분된 질의에 대하여 위키피디아, 네이버 백과사전, 네이버 뉴스 3개 웹 소스로부터 수집된 비정형 문서로부터 관련 정보를 추출하며, 제안된 방법론을 적용한 시스템의 성능평가를 위하여, Wu and Weld(2007)의 모델을 베이스라인 모델로 선정하여 성능을 비교분석 하였다. 연구결과 제안된 모델이 베이스라인 모델에 비해, 위키피디아, 네이버 백과사전, 네이버 뉴스 등 다양한 형태의 문서에서 정보를 효과적으로 추출하는 강건한 모델임을 입증하였다. 본 연구의 결과는 현업 지식베이스 관리자에게 지식베이스 확장을 위한 웹에서 질의에 대한 답변정보를 추출하기 위한 시스템 개발의 지침서로서 실무적인 시사점을 제공함과 동시에, 추후 다양한 형태의 질의응답 시스템 및 정보추출 연구로의 확장에 기여할 수 있을 것으로 기대한다.