• 제목/요약/키워드: Filtering types

검색결과 267건 처리시간 0.025초

인도네시아 열대작물 오일의 Amberlyst-15 촉매 에스테르화 반응 및 바이오디젤 물성 분석 (Esterification of Indonesia Tropical Crop Oil by Amberlyst-15 and Property Analysis of Biodiesel)

  • 이경호;;이준표;이진석;김덕근
    • 한국응용과학기술학회지
    • /
    • 제36권1호
    • /
    • pp.324-332
    • /
    • 2019
  • 한국과 인도네시아를 포함한 대부분의 국가는 온실가스 감축을 위해 바이오디젤 같은 바이오연료 보급에 대한 강력한 정책을 추진하고 있다. 하지만, 바이오디젤 보급 확대를 위해서는 원료 부족 문제를 먼저 해결해야 한다. 본 연구에서는 원료 공급 안정성을 개선하고 바이오디젤 생산 가격을 낮추기 위해 비식용이면서 동시에 단위면적당 생산성이 높은 인도네시아 열대작물(R. Trisperma) 오일의 바이오디젤 생산 가능성을 조사하였다. 수확기간이 다른 두 종류의 오일은 많은 불순물과 높은 유리지방산 함량을 가지고 있어 효율적인 바이오디젤 생산을 위해, 에스테르화 반응과 전이에스테르화 반응을 실시하였다. 오일은 반응을 진행하기 앞서 여과와 수분제거 과정을 통해 반응의 효율을 높이고자 하였다. 에스테르화 반응은 불균질계 산 촉매인 Amberlyst-15를 사용하였으며, 반응 전 오일들의 산가는 각각 41, 17 mg KOH / g이었으나, 에스테르화 반응 후 3.7, 1.8 mg KOH/g으로 약 90% 이상의 전환율을 보이며 유리지방산 함량을 2%이하로 감소시켰다. 이후 전이에스테르화 반응은 KOH를 염기 촉매로 사용하여 바이오디젤 합성 실험을 진행하였다. 생성된 바이오디젤은 약 93%의 FAME 함량을 나타냈으며, 총 글리세롤의 함량은 0.43%으로 제품 규격(FAME 96.5%, 총 글리세롤 0.24%)에는 미달되었다. 이는 지방산 조성 분석 결과 일반적으로 관찰되지 않는 특이 지방산인 ${\alpha}$-Eleostearic acid가 10.7~33.4% 포함되어 나타나는 특성으로 판단되며, 추가 반응 최적화 및 분리정제 연구 진행으로 연료품질 규격 달성이 필요한 것으로 나타났다. 기존에 활용되지 못하던 비식용 원료로부터 바이오디젤 생산 기술을 확보할 경우 바이오디젤 보급 확대를 위한 안정적 원료 공급에 기여할 것으로 판단된다.

신규시장 성장모형의 모수 추정을 위한 전문가 시스템 (An Expert System for the Estimation of the Growth Curve Parameters of New Markets)

  • 이동원;정여진;정재권;박도형
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.17-35
    • /
    • 2015
  • 시장 수요 예측은 일정 기간 동안 소비자에게 판매되는 동종 제품 또는 서비스의 수량 혹은 매출액의 규모를 추정하는 활동으로서, 기업경영활동에 있어 효율적인 의사결정을 내릴 수 있는 근거로 활용된다는 점에서 중요하게 인식되고 있다. 신규 시장의 수요를 예측하기 위해 다양한 시장성장모형이 개발되어 왔다. 이런 모형들은 일반적으로 시장의 크기 변화의 동인을 신기술 확산으로 보고 소비자인 개인에게 기술이 확산되는 과정을 통해 시장 크기가 변하는 과정을 확산모형으로 구현하게 된다. 그러나, 시장이 형성된 직후에는 수요 관측치의 부족으로 인해 혁신계수, 모방계수와 같은 예측모형의 모수를 정확하게 추정하는 것이 쉽지 않다. 이런 경우, 전문가의 판단 하에 예측하고자 하는 시장과 유사한 시장을 결정하고 이를 참고하여 모수를 추정하게 되는데, 어떤 시장을 유사하다고 판단하느냐에 따라 성장모형은 크게 달라지게 되므로, 정확한 예측을 위해서는 유사 시장을 찾는 것은 매우 중요하다. 그러나, 이런 방식은 직관과 경험이라는 정성적 판단에 크게 의존함으로써 일관성이 떨어질 수밖에 없으며, 결국, 만족할 만한 수준의 결과를 얻기 힘들다는 단점을 지닌다. 이런 정성적 방법은 유사도가 더 높은 시장을 누락시키고 유사도가 낮은 시장을 선택하는 오류를 일으킬 수 있다. 이런 이유로, 본 연구는 신규 시장의 모수를 추정하기 위해 필요한 유사시장을 누락 없이 효과적으로 찾아낼 수 있는 사례기반 전문가 시스템을 설계하고자 수행되었다. 제안된 모형은 데이터 마이닝의 군집분석 기법과 추천 시스템의 내용 기반 필터링 방법론을 기반으로 전문가 시스템으로 구현되었다. 본 연구에서 개발된 시스템의 유용성을 확인하고자 정보통신분야 시장의 모수를 추정하는 실험을 실시하였다. 전문가를 대상으로 실시된 실험에서, 시스템을 사용한 모수의 추정치가 시스템을 사용하지 않았을 때와 비교하여 실제 모수와 더 가까움을 보임으로써 시스템의 유용성을 증명하였다.

장애물 인식 지능을 갖춘 자율 이동로봇의 구현 (Implementation of a Self Controlled Mobile Robot with Intelligence to Recognize Obstacles)

  • 류한성;최중경
    • 대한전자공학회논문지SP
    • /
    • 제40권5호
    • /
    • pp.312-321
    • /
    • 2003
  • 본 논문은 장애물을 인식하고 회피하면서 목적지까지 자율적으로 이동할 수 있는 로봇을 구현한 논문이다. 우리는 본 논문에서 영상처리보드의 구현이라는 하드웨어적인 부분과 자율 이동로봇을 위한 영상궤환 제어라는 소프트웨어의 두 가지 결과를 나타내었다. 첫 번째 부분에서, 영상처리를 수행하는 제어보드로부터 명령을 받는 로봇을 나타내었다. 우리는 오랫동안 CCD카메라를 탑재한 자율 이동로봇에 대하여 연구해왔다. 로봇의 구성은 DSP칩을 탑재한 영상보드와 스텝모터 그리고 CCD카메라로 구성된다. 시스템 구성은 이동로봇의 영상처리 보드에서 영상을 획득하고 영상처리 알고리즘을 수행하고 로봇의 이동경로를 계산한다. 이동로봇에 탑재된 CCD카메라에서 획득한 영상 정보는 매 샘플링 시간마다 캡쳐한다. 화면에서 장애물의 유무를 판별한 후 좌 혹은 우로 회전하여 장애물을 회피하고 이동한 거리를 Feedback하는 시스템을 구현하여 초기에 지정한 목표지점가지 로봇이 갈 수 있도록 간략한 경로를 계획하여 절대좌표를 추적해 나가는 알고리즘을 구현한다. 이러한 영상을 획득하고 알고리즘을 처리하는 영상처리 보드의 구성은 DSP (TMS320VC33), ADV611, SAA7111, ADV7176A, CPLD(EPM7256ATC144), SRAM 메모리로 구성되어 있다. 두 번째 부분에서는 장애물을 인식하고 회피하기 위하여 두 가지의 영상궤환 제어 알고리즘을 나타낸다. 첫 번째 알고리즘은 필터링, 경계검출 NOR변환, 경계치 설정 등의 영상 전처리 과정을 거친 영상을 분할하는 기법이다. 여기에서는 Labeling과 Segmentation을 통한 pixel의 밀도 계산이 도입된다. 두 번째 알고리즘은 위와 같이 전처리된 영상에 웨이브렛 변환을 이용하여 수직방향(y축 성분)으로 히스토그램 분포를 20 Pixel 간격으로 스캔한다. 파형 변화에 의하여 장애물이 있는 부분의 히스토그램 분포는 거의 변동이 없이 나타난다. 이러한 특성을 분석하여 장애물이 있는 곳을 찾아내고 이것을 회피하기 위한 알고리즘을 세웠다. 본 논문은 로봇에 장착된 한 개의 CCD 카메라를 이용하여 장애물을 회피하면서 초기에 설정해둔 목적지가지 도달하기 위한 알고리즘을 제안하였으며, 영상처리 보드를 설계 및 제작하였다. 영상처리 보드는 일반적인 보드보다 빠른 속도(30frame/sec)와 해상도를 지원하며 압축 알고리즘을 탑재하고 있어서 영상을 전송하는 데에 있어서도 탁월한 성능을 보인다.

집단지성 기반 학습자료 북마킹 서비스 시스템 (Learning Material Bookmarking Service based on Collective Intelligence)

  • 장진철;정석환;이슬기;정치훈;윤완철;이문용
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.179-192
    • /
    • 2014
  • 최근 IT 환경의 변화에 따라 웹 서비스를 기반으로 대규모 사용자 대상의 상호 참여적인 MOOC(Massive Open Online Courses)과 같은 온라인 교육 환경이 부상하고 있다. 그러나 온라인 교육 시스템은 원거리로 학습이 이루어짐에 따라 학습자의 자발적 동기를 꾸준히 유지하기 어려우며, 또한 학습자 간에 지식을 공유하고 공유한 지식을 활용하는 기능이 부족하다. 이러한 문제를 극복하기 위해 구성주의적 학습이론과 집단지성에 기반하여 학습자가 보유한 학습자료를 공유하고 개인화된 학습자료 추천을 받을 수 있는 학습자료 북마킹 서비스인 WeStudy를 구현하였다. 위키피디아(Wikipedia), 슬라이드쉐어 (SlideShare), 비디오렉쳐스 (VideoLectures) 등 현존하는 집단지성 기반 서비스들의 주요 기능으로부터 필요한 집단지성 기능들을 검토하였으며, 본 서비스의 주요 기능으로 1) 리스트 및 그래프 형태의 학습자료 리스트 시각화, 2) 개인화된 학습자료 추천, 3) 보다 상세한 학습자료 추천을 위한 관심 학습자 지정 등을 도출하여 시스템을 설계하였다. 이후, 웹 기반으로 구현된 세 가지 주요기능 별로 개량된 휴리스틱 사용성 평가 방법을 통해 개발된 시스템의 사용성 평가를 실시하였다. 10명의 HCI 분야 전공자 및 현업 종사자를 대상으로 정량적 및 정성적인 평가 결과, 세 가지의 주요 기능에서 전반적으로 사용성이 우수한 것으로 판정되었다. 주요 기능 별 정성적인 평가에서 도출된 여러 마이너 이슈들을 반영할 필요가 있으며, 향후 대규모 사용자를 대상으로 본 서비스를 보급하고 이용할 수 있도록 제공하여 자발적인 지식 공유 환경을 조성할 수 있을 것으로 전망된다.

도로변 공원의 공간조성유형에 따른 초미세먼지 분포 특성 - 부산시 송상현광장을 사례로- (Characteristics of Particulate Matter 2.5 by Type of Space of Urban Park - Focusing on the Songsanghyeon Plaza in Busan -)

  • 안로사;홍석환
    • 한국조경학회지
    • /
    • 제49권6호
    • /
    • pp.37-48
    • /
    • 2021
  • 본 연구는 도심 내 주요 초미세먼지(PM2.5) 발생원인 도로 인근에 조성된 도시공원을 대상으로 도시공원 내부 공간조성유형에 따라 PM2.5의 농도변화를 분석하여 특성을 살펴보고자 하였다. 연구대상지는 부산시 진구 도심 내 12차선의 도로 중심부에 광장형 공원형태로 조성된 송상현광장으로 선정하였으며, 공원의 공간조성유형은 토지피복유형과 식생구조에 따라 도로변 광장(A), 선큰광장(B), 도로 경계부 다층식재지(C), 교목 하부(D), 잔디광장(E)으로 총 5가지로 구분하였다. PM2.5는 초미세먼지 등급별 국가예보에 따라 좋음일, 보통일, 나쁨일 3일씩 총 9회 측정한 결과를 바탕으로 평균비교 분석을 수행하였다. PM2.5 좋음일 기준으로 송상현광장 내 공간조성유형별 농도는 D, E < B, C < A 순으로 통계적 유의성이 있었다. PM2.5 보통일과 나쁨일 기준은 D, E < A, B, C 순으로 유의하였다. 공간조성유형별 송상현광장 내 PM2.5 농도 특성은 인근 차도로부터 확산되는 PM2.5의 대기의 흐름의 영향이 큰 것으로 판단되었다. 차도와 15m 거리에 위치해 있는 A와 C의 경우 PM2.5 농도가 높았으나, B는 도로로부터 40m 거리에 떨어져 있는 PM2.5 농도가 높았다. 이는 B는 외벽구조로 둘러싸여 공간 내부의 공기순환이 느려 상대적으로 대기가 확산되지 못하는 것으로 판단되었다. D와 E의 경우 C의 공간조성유형을 통해 대기의 흐름이 차단된 후 공원 내부에서 대기의 흐름이 원활한 구조여서 PM2.5 농도가 상대적으로 낮은 것으로 판단하였다.

국내 엔젤투자 연구의 특징과 향후 방향은 무엇인가? (What are the Characteristics and Future Directions of Domestic Angel Investment Research?)

  • 김민;최병철;이우진
    • 벤처창업연구
    • /
    • 제18권6호
    • /
    • pp.57-70
    • /
    • 2023
  • 본 연구는 1997년 이후부터 2022년까지 한국연구재단에 등재된 학술문헌을 '엔젤투자' 와 '엔젤투자자' 그리고 '엔젤투자유치' 의 키워드로 검색하여 조사된 문헌들을 연도, 연구주제, 연구방식, 연구대상, 연구방법의 분류를 통해 국내 엔젤투자에 대한 체계적 문헌고찰을 실시하였다. 본 연구를 통해 국내에서 엔젤투자를 주제로 한 연구현황을 분석하여 해외연구대비 상대적으로 부족한 분야의 주제를 제시하였다. 또한, 엔젤투자 연구의 체계적 확장을 위한 연구방향과 관련한 사회과학적 이론을 제시하였다. 그리고 마지막으로 엔젤투자 분야의 연구 활성화를 위해 어떤 부분들이 필요할지 시사점을 제시하였다. 본 연구로 수집된 문헌들을 분석한 결과 국내의 엔젤투자 관련 연구주제는 엔젤투자자의 특성, 벤처창업기업, 제도 및 정책, 엔젤투자의사, 엔젤투자 유형 등에 초점을 두고 있었으며, 향후 연구에서는 엔젤투자 성과분석, 엔젤투자의 사례연구, 그리고 국내 엔젤투자 규모의 성장과 활성화에 도움이 될 수 있도록 연구의 확장이 필요하다는 결론을 도출하였다. 또한, 벤처창업기업, 엔젤투자 유형, 엑설러레이터, 벤처캐피탈, 제도 및 정책 등 특정 변수에 초점을 둔 연구에서 벗어나 크라우드펀딩, 투자수익률 등 엔젤투자에 관련된 다양한 변수관계를 연구 할 필요가 있다. 특히, 앞으로 엔젤투자 성과를 예측하고 해석하는 데 중요한 역할을 하는 다양한 독립변수들과의 관계를 더 자세히 탐구하는 연구가 더욱 필요하다. 또한, 엔젤투자와 투자 의사결정에 영향을 미치는 다양한 변수들에 대한 이론적 구조를 분석하여 이러한 구조에 대한 질적 및 양적연구가 다방면으로 활성화 될 필요가 있다. 본 연구를 통해 향후 엔젤투자 분야에서 보다 다양한 연구가 진행되길 기대하며, 이러한 연구결과들은 국내 엔젤투자의 활성화에도 기여할 수 있을 것이다.

  • PDF

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.