• 제목/요약/키워드: Graph Data

검색결과 1,293건 처리시간 0.031초

CHAID분석을 이용한 나들목 주변 지가의 공간분포 영향모형 개발 - 서울외곽순환고속도로를 중심으로 - (Development of Selection Model of Interchange Influence Area in Seoul Belt Expressway Using Chi-square Automatic Interaction Detection (CHAID))

  • 김태호;박제진;김영일;노정현
    • 대한토목학회논문집
    • /
    • 제29권6D호
    • /
    • pp.711-717
    • /
    • 2009
  • 본 연구는 고속도로 나들목의 접근성이 주변 아파트 지가형성에 미치는 영향 관계를 규명하기 위해서 서울외곽순환고속도로를 중심으로 분석하였다. 분석을 위해서는 데이터마이닝(CHAID분석), 추세선 분석(Trend Analysis) 등을 활용하여 고속도로의 나들목(IC) 주변 아파트가격과 관련된 지가경사 모형을 개발하였다. 분석결과, 첫째, 고속도로 나들목이 위치한 지역별(외측 : 경기도, 내측 : 서울시)로 아파트 가격에 차이가 있으며, 일반적인 주택가격과 교통결절점이 가지는 선형 관계가 아닌 비선형적 관계(2차 다항식)를 가지는 것으로 나타났다. 둘째, CHAID분석을 이용한 공간분포 검토 결과, 외측지역(경기도)의 경우 2.6km를 전후하여 2개의 상이한 공간분포를 가지며, 내측지역(서울시)의 경우 1.4km와 3.8km를 전후하여 3개의 상이한 공간분포를 가지는 것으로 나타났다. 이는 아파트 가격이 도로결절점(고속도로 나들목)으로부터 첫 번째 임계점까지 는 점차 상승하다가 일정거리 이후부터 서서히 감소하는 복합적인 공간분포를 가지는 것으로 나타나 교통접근성이 좋다고 하여 주택가격이 높지만은 않으며, 주거환경(고속도로 소음, 지역단절 등)과 교통접근성간의 상호 교환 작용(Trade Off Effect)에 의한 현상이라 할 수 있다. 향후 본 연구의 고속도로 나들목 주택가격 영향모형을 이용하여 고속도로 주변에 지속적으로 건설되고 있는 신도시 주택가격 산정에 활용이 가능할 것으로 판단된다.

An Analysis of the Ripple Effect of Congestion in a Specific Section Using the Robustness Sensitivity of the Traffic Network

  • Chi-Geun Han;Sung-Geun Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.83-91
    • /
    • 2023
  • 본 연구는 특정 구간의 정체가 전체 고속도로에 미치는 영향을 분석하기 위한 고속도로 망의 강건성 민감도 지수(RSI: robustness sensitivity index)를 제안한다. 새로 제안된 RSI는 특정 구간의 길이가 연장되었을 때, 연장된 단위 길이 당 교통망의 총 운행거리 변화량으로 정의한다. RSI 값이 클 경우, 해당 구간의 교통 정체는 다른 구간에 비해 전체 망에 나쁜 영향을 미치게 된다. 기존의 망 강건성 지수(NRI: network robustness index)는 단순히 특정 구간이 있을 때와 없을 때의 교통망 변화를 관찰하지만, 본 연구가 제안한 RSI는 일종의 성능 지표로 특정 구간의 정체 정도에 따른 망 전체의 파급효과를 정량적으로 분석할 수 있게 해준다. 특정 구간의 정체 정도를 변화시키면서, 그 정체가 발생시키는 다른 구간들의 교통량 증가, 감소, 정체 구간의 크기 및 위치 등이 어떻게 변화하는지를 계산할 수 있다. 이 분석은 NRI로는 분석 불가능한 것으로 RSI의 우수성을 입증하는 것이다. 국내 고속도로 망의 데이터를 이용해 RSI의 다양한 성질을 분석한다. 그리고 RSI 개념을 이용하면 특정 구간의 정체 정도 변화가 발생시키는 다른 구간들에 대한 파급효과를 분석할 수 있음을 보인다.

A Study on the Implement of AI-based Integrated Smart Fire Safety (ISFS) System in Public Facility

  • Myung Sik Lee;Pill Sun Seo
    • 국제초고층학회논문집
    • /
    • 제12권3호
    • /
    • pp.225-234
    • /
    • 2023
  • Even at this point in the era of digital transformation, we are still facing many problems in the safety sector that cannot prevent the occurrence or spread of human casualties. When you are in an unexpected emergency, it is often difficult to respond only with human physical ability. Human casualties continue to occur at construction sites, manufacturing plants, and multi-use facilities used by many people in everyday life. If you encounter a situation where normal judgment is impossible in the event of an emergency at a life site where there are still many safety blind spots, it is difficult to cope with the existing manual guidance method. New variable guidance technology, which combines artificial intelligence and digital twin, can make it possible to prevent casualties by processing large amounts of data needed to derive appropriate countermeasures in real time beyond identifying what safety accidents occurred in unexpected crisis situations. When a simple control method that divides and monitors several CCTVs is digitally converted and combined with artificial intelligence and 3D digital twin control technology, intelligence augmentation (IA) effect can be achieved that strengthens the safety decision-making ability required in real time. With the enforcement of the Serious Disaster Enterprise Punishment Act, the importance of distributing a smart location guidance system that urgently solves the decision-making delay that occurs in safety accidents at various industrial sites and strengthens the real-time decision-making ability of field workers and managers is highlighted. The smart location guidance system that combines artificial intelligence and digital twin consists of AIoT HW equipment, wireless communication NW equipment, and intelligent SW platform. The intelligent SW platform consists of Builder that supports digital twin modeling, Watch that meets real-time control based on synchronization between real objects and digital twin models, and Simulator that supports the development and verification of various safety management scenarios using intelligent agents. The smart location guidance system provides on-site monitoring using IoT equipment, CCTV-linked intelligent image analysis, intelligent operating procedures that support workflow modeling to immediately reflect the needs of the site, situational location guidance, and digital twin virtual fencing access control technology. This paper examines the limitations of traditional fixed passive guidance methods, analyzes global technology development trends to overcome them, identifies the digital transformation properties required to switch to intelligent variable smart location guidance methods, explains the characteristics and components of AI-based public facility smart fire safety integrated system (ISFS).

한반도 도서지역의 식물사회네트워크 분석 (Analysis of Plants Social Network on Island Area in the Korean Peninsula)

  • 이상철;강현미;박석곤
    • 한국환경생태학회지
    • /
    • 제38권2호
    • /
    • pp.127-142
    • /
    • 2024
  • 본 연구는 난온대림에 속한 도서지역에서 조사한 대량의 식생 데이터로 식물사회네트워크 분석을 통해 식물군락의 수종간 상호관계를 파악하고자 했다. 상록활엽수 성숙림에 출현하는 교목성 후박나무·구실잣밤나무·생달나무·광나무, 관목성 돈나무·자금우, 덩굴성 마삭줄·멀꿀이 서로 강한 양성결합(+)을 보였다. 이 수종들은 낙엽활엽수종과는 음성결합(-)하거나 친소관계가 없었는데 이는 입지환경 차이가 크기 때문이다. 식물사회네트워크 소시오그램에서 4개의 그룹으로 묶어 상록활엽수종인 그룹I과 낙활엽수종인 그룹II의 수종간에는 중심성과 연결성이 높게 나타났다. 소시오그램의 수종(노드) 배치와 연결정도(그룹화)는 DCA분석와 같이 환경요인과 식물군집의 특성을 간접적으로 추정 가능한 것으로 분석됐다. 식물사회네트워크상 중심성과 영향력이 큰 수종은 마삭줄·사스레피나무·생강나무·때죽나무 등이었다. 이 수종은 생태적 지위의 범위가 넓은 일반종이면서 숲틈과 훼손지 등에 흔히 출현하는 기회종의 특성과 생존전략을 갖는 것으로 보인다. 이 수종들이 식물군집의 종간 상호작용과 군집의 구조와 기능 변화에 그 역할이 클 것이다. 하지만 실제 식물사회에서 어떤 상호작용을 통해 식물군집 변화에 영향을 미치는지는 장기적인 연구와 심도 있는 논의가 필요하다.

ESG 보고서의 텍스트 분석을 이용한 ESG 활동 탐색 -중국 상장 제조 기업을 대상으로- (Exploring ESG Activities Using Text Analysis of ESG Reports -A Case of Chinese Listed Manufacturing Companies-)

  • 진웅철;백승익;손유봉;김향단
    • 서비스연구
    • /
    • 제14권2호
    • /
    • pp.18-36
    • /
    • 2024
  • 본 연구는 글로벌 경제 시장에서 중국의 제조 기업들이 동적역량을 기반으로 어떠한 ESG 활동을 수행하고 있으며 그 활동에는 어떠한 차이가 있는가를 분석하였다. 상하이와 선전 증권 거래소 (Shanghai & Shenzhen Stock Exchange)에서 151개 중국 상장 제조 기업들의 ESG 연례 보고서와 상하이 화정 지표 정보 회사(CSI, China Securities Index Company)의 ESG 지표를 데이터로 사용하였다. 연구 분석에는 TensorFlow-BERT 모델과 코사인 유사도를 사용하여 환경, 사회, 지배구조로 구분된 ESG 키워드를 분류하였고 이를 기반으로 다음 세가지의 연구 질문을 구성하였다. 첫번째는 ESG 점수가 높은 기업(TOP-25)과 낮은 기업(BOT-25)을 구분하여 이 기업들 사이의 ESG 활동에는 어떠한 차이가 있는지를 확인하였으며, 두 번째는 ESG 점수가 높은 기업만을 중심으로 10년간(2010~2019년)의 ESG 활동에는 어떠한 변화가 있는지도 확인하였다. 그 결과 ESG 점수가 높은 기업과 낮은 기업간의 ESG 활동에는 유의한 차이를 보였으며, TOP-25기업의 연도별 활동 변화 추적에서는 ESG 활동의 모든 부분에서 차이를 보이지 않은 것으로 나타났다. 세번째 연구에서는 연도별로 작성된 각 항목별 E, S, G 키워드에 대하여 소셜 네트워크 분석을 진행하였다. 동시발생행렬(Co-occurance matrix) 기법을 통해 기업들의 ESG활동을 4사분면 그래프로 시각화하였으며 이를 바탕으로 ESG활동에 대한 향후 방향을 제시하였다.

"감자에 대한 항생제(抗生劑) 피마리신의 통계적(統計的) 효과(效果) 분석(分析)" (INVESTIGATION OF THE EFFECT OF AN ANTIBIOTIC "P" ON POTATOES)

  • 김종훈
    • 품질경영학회지
    • /
    • 제5권2호
    • /
    • pp.59-120
    • /
    • 1977
  • An antibiotic 'P', which is one of the products of the Gist Brocades N. V. is being tested by its research department as fungicide on seed-potatoes. For this testing they designed experiments, with two control groups, one competitor's product, eight formulations of the antibiotic to be tested in different concentrations and one mercury treatment which can not be used in practice. The treated potatoes were planted in three different regions, where bifferent conditions prevail. After several months the harvested potatoes are divided in groups according to their diameter, potato illness is analysed and counted. These data were summarised in percentage and given to us for Analysis. We approached and analysed the data by following methods: a. Computation of the mean and standard deviation of the percenage of good results in each size group and treatment. b. Computation of the experimental errors by substraction of each treatment mean from observed data. c. Description of the frequency table, plotting of a histogram and a normal curve on same graph to check normality. d. Test of normality paper and chi-sqeare test to check the goodness of fit to a normal curve. e. Test for homogeneity of variance in each treatment with the Cochran's test and Hartley's test. f. Analysis of Variance for testing the means by one way classifications. g. Drawing of graphs with upper and lower confidence limits to show the effect of different treatments. h. T-test and F-test to two Control mean and variance for making one control of Dunnett's test. i. Dunnett's Test and calculations for numerical comarision of different treatments wth one control. In region R, where the potatoes were planted, it was this year very dry and rather bad conditions to grow potatoes prevailed during the experimental period. The results of this investigation show us that treatment No.2, 3 and 4 are significantly different from other treatments and control groups (none treated, just like natural state). Treatment no.2 is the useless mercury formulation. So only No. 3 and 4, which have high concentrations of antibiotic 'P', gave a good effect to the potatoes. As well as the competitors product, middle and low concentrated formulations are not significantly different from control gro-ups of every size. In region w, where the potatoes got the same treatments as in region R, prevailed better weather conditions and was enough water obtainable from the lake. The results in this region showed that treatment No. 2, 3, 4, and 5 are Significantly different from other treatments and the control groups. Again No.2 is the mercury treatmentin this investigation. Not only high concentrated formulation of antibiotic 'P', but also the competitor's poroduct gave good results. But, the effect of 'P', was better than the competitors porduct. In region G, where the potatoes got the same treatments as in the regions R and w. and the climate conditions were equal to region R, the results showed that most of the treatments are not significantly different from the control groups. Only treatment no. 3 was a little bit different from the others. but not Significantly different. It seems to us that the difference between the results in the three regions was caused by certain conditions like, the nature of the soil the degres of moisture and hours of sunshine, but we are not sure of that. As a conclusion, we can say that antibiotic 'P' has a good effect on potatoes, but in most investigations a rather high concentration of 'P' was required in formulations.

  • PDF

M&W 파동 패턴과 유전자 알고리즘을 이용한 주식 매매 시스템 개발 (Development of a Stock Trading System Using M & W Wave Patterns and Genetic Algorithms)

  • 양훈석;김선웅;최흥식
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.63-83
    • /
    • 2019
  • 투자자들은 기업의 내재가치 분석, 기술적 보조지표 분석 등 복잡한 분석보다 차트(chart)에 나타난 그래프(graph)의 모양으로 매매 시점을 찾는 직관적인 방법을 더 선호하는 편이다. 하지만 패턴(pattern) 분석 기법은 IT 구현의 난이도 때문에 사용자들의 요구에 비해 전산화가 덜 된 분야로 여겨진다. 최근에는 인공지능(artificial intelligence, AI) 분야에서 신경망을 비롯한 다양한 기계학습(machine learning) 기법을 사용하여 주가의 패턴을 연구하는 사례가 많아졌다. 특히 IT 기술의 발전으로 방대한 차트 데이터를 분석하여 주가 예측력이 높은 패턴을 발굴하는 것이 예전보다 쉬워졌다. 지금까지의 성과로 볼 때 가격의 단기 예측력은 높아졌지만, 장기 예측력은 한계가 있어서 장기 투자보다 단타 매매에서 활용되는 수준이다. 이외에 과거 기술력으로 인식하지 못했던 패턴을 기계적으로 정확하게 찾아내는 데 초점을 맞춘 연구도 있지만 찾아진 패턴이 매매에 적합한지 아닌지는 별개의 문제이기 때문에 실용적인 부분에서 취약할 수 있다. 본 연구는 주가 예측력이 있는 패턴을 찾으려는 기존 연구 방법과 달리 패턴들을 먼저 정의해 놓고 확률기반으로 선택해서 매매하는 방법을 제안한다. 5개의 전환점으로 정의한 Merrill(1980)의 M&W 파동 패턴은 32가지의 패턴으로 시장 국면 대부분을 설명할 수 있다. 전환점만으로 패턴을 분류하기 때문에 패턴 인식의 정확도를 높이기 위해 드는 비용을 줄일 수 있다. 32개 패턴으로 만들 수 있는 조합의 수는 전수 테스트가 불가능한 수준이다. 그래서 최적화 문제와 관련한 연구들에서 가장 많이 사용되고 있는 인공지능 알고리즘(algorithm) 중 하나인 유전자 알고리즘(genetic algorithm, GA)을 이용하였다. 그리고 미래의 주가가 과거를 반영한다 해도 같게 움직이지 않기 때문에 전진 분석(walk-forward analysis, WFA)방법을 적용하여 과최적화(overfitting)의 실수를 줄이도록 하였다. 20종목씩 6개의 포트폴리오(portfolio)를 구성하여 테스트해 본 결과에 따르면 패턴 매매에서 가격 변동성이 어느 정도 수반되어야 하며 패턴이 진행 중일 때보다 패턴이 완성된 후에 진입, 청산하는 것이 효과적임을 확인하였다.

뉴럴 텐서 네트워크 기반 주식 개별종목 지식개체명 추출 방법에 관한 연구 (A Study on Knowledge Entity Extraction Method for Individual Stocks Based on Neural Tensor Network)

  • 양윤석;이현준;오경주
    • 지능정보연구
    • /
    • 제25권2호
    • /
    • pp.25-38
    • /
    • 2019
  • 정보화 시대의 넘쳐나는 콘텐츠들 속에서 사용자의 관심과 요구에 맞는 양질의 정보를 선별해내는 과정은 세대를 거듭할수록 더욱 중요해지고 있다. 정보의 홍수 속에서 사용자의 정보 요구를 단순한 문자열로 인식하지 않고, 의미적으로 파악하여 검색결과에 사용자 의도를 더 정확하게 반영하고자 하는 노력이 이루어지고 있다. 구글이나 마이크로소프트와 같은 대형 IT 기업들도 시멘틱 기술을 기반으로 사용자에게 만족도와 편의성을 제공하는 검색엔진 및 지식기반기술의 개발에 집중하고 있다. 특히 금융 분야는 끊임없이 방대한 새로운 정보가 발생하며 초기의 정보일수록 큰 가치를 지녀 텍스트 데이터 분석과 관련된 연구의 효용성과 발전 가능성이 기대되는 분야 중 하나이다. 따라서, 본 연구는 주식 관련 정보검색의 시멘틱 성능을 향상시키기 위해 주식 개별종목을 대상으로 뉴럴 텐서 네트워크를 활용한 지식 개체명 추출과 이에 대한 성능평가를 시도하고자 한다. 뉴럴 텐서 네트워크 관련 기존 주요 연구들이 추론을 통해 지식 개체명들 사이의 관계 탐색을 주로 목표로 하였다면, 본 연구는 주식 개별종목과 관련이 있는 지식 개체명 자체의 추출을 주목적으로 한다. 기존 관련 연구의 문제점들을 해결하고 모형의 실효성과 현실성을 높이기 위한 다양한 데이터 처리 방법이 모형설계 과정에서 적용되며, 객관적인 성능 평가를 위한 실증 분석 결과와 분석 내용을 제시한다. 2017년 5월 30일부터 2018년 5월 21일 사이에 발생한 전문가 리포트를 대상으로 실증 분석을 진행한 결과, 제시된 모형을 통해 추출된 개체명들은 개별종목이 이름을 약 69% 정확도로 예측하였다. 이러한 결과는 본 연구에서 제시하는 모형의 활용 가능성을 보여주고 있으며, 후속 연구와 모형 개선을 통한 성과의 제고가 가능하다는 것을 의미한다. 마지막으로 종목명 예측 테스트를 통해 본 연구에서 제시한 학습 방법이 새로운 텍스트 정보를 의미적으로 접근하여 관련주식 종목과 매칭시키는 목적으로 사용될 수 있는 가능성을 확인하였다.

다양한 다분류 SVM을 적용한 기업채권평가 (Corporate Bond Rating Using Various Multiclass Support Vector Machines)

  • 안현철;김경재
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.157-178
    • /
    • 2009
  • Corporate credit rating is a very important factor in the market for corporate debt. Information concerning corporate operations is often disseminated to market participants through the changes in credit ratings that are published by professional rating agencies, such as Standard and Poor's (S&P) and Moody's Investor Service. Since these agencies generally require a large fee for the service, and the periodically provided ratings sometimes do not reflect the default risk of the company at the time, it may be advantageous for bond-market participants to be able to classify credit ratings before the agencies actually publish them. As a result, it is very important for companies (especially, financial companies) to develop a proper model of credit rating. From a technical perspective, the credit rating constitutes a typical, multiclass, classification problem because rating agencies generally have ten or more categories of ratings. For example, S&P's ratings range from AAA for the highest-quality bonds to D for the lowest-quality bonds. The professional rating agencies emphasize the importance of analysts' subjective judgments in the determination of credit ratings. However, in practice, a mathematical model that uses the financial variables of companies plays an important role in determining credit ratings, since it is convenient to apply and cost efficient. These financial variables include the ratios that represent a company's leverage status, liquidity status, and profitability status. Several statistical and artificial intelligence (AI) techniques have been applied as tools for predicting credit ratings. Among them, artificial neural networks are most prevalent in the area of finance because of their broad applicability to many business problems and their preeminent ability to adapt. However, artificial neural networks also have many defects, including the difficulty in determining the values of the control parameters and the number of processing elements in the layer as well as the risk of over-fitting. Of late, because of their robustness and high accuracy, support vector machines (SVMs) have become popular as a solution for problems with generating accurate prediction. An SVM's solution may be globally optimal because SVMs seek to minimize structural risk. On the other hand, artificial neural network models may tend to find locally optimal solutions because they seek to minimize empirical risk. In addition, no parameters need to be tuned in SVMs, barring the upper bound for non-separable cases in linear SVMs. Since SVMs were originally devised for binary classification, however they are not intrinsically geared for multiclass classifications as in credit ratings. Thus, researchers have tried to extend the original SVM to multiclass classification. Hitherto, a variety of techniques to extend standard SVMs to multiclass SVMs (MSVMs) has been proposed in the literature Only a few types of MSVM are, however, tested using prior studies that apply MSVMs to credit ratings studies. In this study, we examined six different techniques of MSVMs: (1) One-Against-One, (2) One-Against-AIL (3) DAGSVM, (4) ECOC, (5) Method of Weston and Watkins, and (6) Method of Crammer and Singer. In addition, we examined the prediction accuracy of some modified version of conventional MSVM techniques. To find the most appropriate technique of MSVMs for corporate bond rating, we applied all the techniques of MSVMs to a real-world case of credit rating in Korea. The best application is in corporate bond rating, which is the most frequently studied area of credit rating for specific debt issues or other financial obligations. For our study the research data were collected from National Information and Credit Evaluation, Inc., a major bond-rating company in Korea. The data set is comprised of the bond-ratings for the year 2002 and various financial variables for 1,295 companies from the manufacturing industry in Korea. We compared the results of these techniques with one another, and with those of traditional methods for credit ratings, such as multiple discriminant analysis (MDA), multinomial logistic regression (MLOGIT), and artificial neural networks (ANNs). As a result, we found that DAGSVM with an ordered list was the best approach for the prediction of bond rating. In addition, we found that the modified version of ECOC approach can yield higher prediction accuracy for the cases showing clear patterns.

유사도 알고리즘을 활용한 시맨틱 프로세스 검색방안 (Semantic Process Retrieval with Similarity Algorithms)

  • 이홍주
    • Asia pacific journal of information systems
    • /
    • 제18권1호
    • /
    • pp.79-96
    • /
    • 2008
  • One of the roles of the Semantic Web services is to execute dynamic intra-organizational services including the integration and interoperation of business processes. Since different organizations design their processes differently, the retrieval of similar semantic business processes is necessary in order to support inter-organizational collaborations. Most approaches for finding services that have certain features and support certain business processes have relied on some type of logical reasoning and exact matching. This paper presents our approach of using imprecise matching for expanding results from an exact matching engine to query the OWL(Web Ontology Language) MIT Process Handbook. MIT Process Handbook is an electronic repository of best-practice business processes. The Handbook is intended to help people: (1) redesigning organizational processes, (2) inventing new processes, and (3) sharing ideas about organizational practices. In order to use the MIT Process Handbook for process retrieval experiments, we had to export it into an OWL-based format. We model the Process Handbook meta-model in OWL and export the processes in the Handbook as instances of the meta-model. Next, we need to find a sizable number of queries and their corresponding correct answers in the Process Handbook. Many previous studies devised artificial dataset composed of randomly generated numbers without real meaning and used subjective ratings for correct answers and similarity values between processes. To generate a semantic-preserving test data set, we create 20 variants for each target process that are syntactically different but semantically equivalent using mutation operators. These variants represent the correct answers of the target process. We devise diverse similarity algorithms based on values of process attributes and structures of business processes. We use simple similarity algorithms for text retrieval such as TF-IDF and Levenshtein edit distance to devise our approaches, and utilize tree edit distance measure because semantic processes are appeared to have a graph structure. Also, we design similarity algorithms considering similarity of process structure such as part process, goal, and exception. Since we can identify relationships between semantic process and its subcomponents, this information can be utilized for calculating similarities between processes. Dice's coefficient and Jaccard similarity measures are utilized to calculate portion of overlaps between processes in diverse ways. We perform retrieval experiments to compare the performance of the devised similarity algorithms. We measure the retrieval performance in terms of precision, recall and F measure? the harmonic mean of precision and recall. The tree edit distance shows the poorest performance in terms of all measures. TF-IDF and the method incorporating TF-IDF measure and Levenshtein edit distance show better performances than other devised methods. These two measures are focused on similarity between name and descriptions of process. In addition, we calculate rank correlation coefficient, Kendall's tau b, between the number of process mutations and ranking of similarity values among the mutation sets. In this experiment, similarity measures based on process structure, such as Dice's, Jaccard, and derivatives of these measures, show greater coefficient than measures based on values of process attributes. However, the Lev-TFIDF-JaccardAll measure considering process structure and attributes' values together shows reasonably better performances in these two experiments. For retrieving semantic process, we can think that it's better to consider diverse aspects of process similarity such as process structure and values of process attributes. We generate semantic process data and its dataset for retrieval experiment from MIT Process Handbook repository. We suggest imprecise query algorithms that expand retrieval results from exact matching engine such as SPARQL, and compare the retrieval performances of the similarity algorithms. For the limitations and future work, we need to perform experiments with other dataset from other domain. And, since there are many similarity values from diverse measures, we may find better ways to identify relevant processes by applying these values simultaneously.