• 제목/요약/키워드: sequential search method

검색결과 109건 처리시간 0.029초

혼합물 반응표면분석에서 디자인 스페이스 구축을 위한 효율적인 실험계획 (Efficient Designs to Develop a Design Space in Mixture Response Surface Analysis)

  • 정종희;임용빈
    • 품질경영학회지
    • /
    • 제48권2호
    • /
    • pp.269-282
    • /
    • 2020
  • Purpose: The practical design for experiments with mixtures of q components is consisted in the four types of design points, vertex, center of edge, axial, and center points in a (q-1)-dimensional simplex space. We propose a sequential method for the successful construction of the design space in Quality by Design (QbD) by allowing the different number of replicates at the four types of design points in the practical design when the quadratic canonical polynomial model is assumed. Methods: To compare the mixture designs efficiency, fraction of design space (FDS) plot is used. We search for the practical mixture designs whose the minimal half-width of the tolerance interval per a standard deviation, which is denoted as d2, is less than 4.5 at 0.8 fraction of the design space. They are found by adding the different number of replicates at the four types of the design points in the practical design. Results: The practical efficient mixture designs for the number of components between three and five are listed. The sequential method to establish a design space is illustrated with the two examples based on the simulated data. Conclusion: The designs with the center of edge points replications are more efficient than those with the vertex points replication. We propose the sample size of at least 23 for three components, 28 for four components, and 33 for the five components based on the list of efficient mixture designs.

정규화 변환을 지원하는 스트리밍 시계열 매칭 알고리즘 (An Efficient Algorithm for Streaming Time-Series Matching that Supports Normalization Transform)

  • 노웅기;문양세;김영국
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권6호
    • /
    • pp.600-619
    • /
    • 2006
  • 최근에 센서 및 모바일 장비들의 발전으로 인하여 이러한 장비들로부터 생성된 대량의 데이터 스트림(data stream)의 처리가 중요한 연구 과제가 되고 있다. 데이타 스트림 중에서 연속되는 시점에 얻어진 실수 값들의 스트림을 스트리밍 시계열(streaming time-series)이라 한다. 스트리밍 시계열에 대한 유사성 매칭은 여러 가지 고유 특성에 의하여 기존의 시계열 데이타와는 다르게 처리되어야 한다. 본 논문에서는 정규화 변환(normalization transform)을 지원하는 스트리밍 시계열 매칭 문제를 해결하기 위한 효율적인 알고리즘을 제안한다. 기존에는 스트리밍 시계열을 아무런 변환 없이 비교하였으나, 본 논문에서는 정규화 변환된 스트리밍 시계열을 비교한다. 정규화 변환은 절대적인 값은 달라도 유사한 변동 경향을 가지는 시계열 데이타를 찾기 위하여 유용하다. 본 논문의 공헌은 다음과 같다. (1) 기존의 정규화 변환을 지원하는 서브시퀀스 매칭 알고리즘[4]에서 제시된 정리(theorem)를 이용하여 정규화 변환을 지원하는 스트리밍 시계열 매칭 문제를 풀기 위한 간단한 알고리즘을 제안한다. (2) 검색 성능을 향상시키기 위하여 간단한 알고리즘을 $k\;({\geq}\;1)$ 개의 인덱스를 이용하는 알고리즘으로 확장한다. (3) 주어진 k에 대하여, 확장된 알고리즘의 검색 성능을 최대화하기 위해 k 개의 인덱스를 생성할 최적의 윈도우 길이를 선택하기 위한 근사 방법(approximation)을 제시한다. (4) 스트리밍 시계열의 연속성(continuity) 개념[8]에 기반하여, 현재 시점 $t_0$에서의 스트리밍 서브시퀀스에 대한 검색과 동시에 미래 시점 $(t_0+m-1)\;(m\geq1)$까지의 검색 결과를 한번의 인덱스 검색으로 구할 수 있도록 재차 확장한 알고리즘을 제안한다. (5) 일련의 실험을 통하여 본 논문에서 제안된 알고리즘들 간의 성능을 비교하고, k 및 m 값의 변화에 따라 제안된 알고리즘들의 검색 성능 변화를 보인다. 본 논문에서 제시한 정규화 변환 스트리밍 시계열 매칭 문제에 대한 연구는 이전에 수행된 적이 없으므로 순차 검색(sequential scan) 알고리즘과 성능을 비교한다. 실험결과, 제안된 알고리즘은 순차 검색에 비하여 최대 13.2배까지 성능이 향상되었으며, 인덱스의 개수 k가 증가함에 따라 검색 성능도 함께 증가하였다.

유전자 알고리즘을 이용한 경로 탐색 (Path Search Method using Genetic Algorithm)

  • 김광백;송두헌
    • 한국정보통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.1251-1255
    • /
    • 2011
  • 본 논문에서는 최적화 문제를 해결하는 기법의 하나인 유전자 알고리즘을 이용하여 모든 노드를 탐색하여 최적의 경로를 도출하는 최적화 경로 탐색 알고리즘을 제안한다. 경로를 도출하기 위해 중간 경로 노드로부터 출발지 노드 및 도착지 노드까지의 거리를 측정하여 개체를 생성한다. 출력 노드들을 도출하기 위해 생성된 개체를 적합도 함수에 적용하여 적합도를 계산한다. 계산된 적합도 값에 따라 교배를 할 노드 및 교배 지점(비트단위)을 선택한다. 선택된 노드와 교배 지점을 이용하여 개체들을 교배한다. 교배를 통해 새로운 개체를 생성한다. 새로운 개체가 적합도 조건에 만족하면 출력 노드로 도출하고, 다음 출력 노드를 도출할 때의 출발지 노드로 선택한다. 이러한 과정을 반복하여 모든 출력 노드를 도출한다. 제안된 방법을 실험한 결과, 순차 방식과 난수를 이용한 경우보다 제안된 방법이 효율적인 것을 확인하였다.

SSD FTL의 캐시 메커니즘에 대한 심층 분석 및 개선 (An In-Depth Analysis and Improvement on Cache Mechanisms of SSD FTL)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권1호
    • /
    • pp.9-16
    • /
    • 2020
  • Recently, the capacity of SSD has been increasing rapidly due to the improvement of flash memory density. To take full advantage of these SSDs, first of all, FTL's prompt adaptation is necessary. The FTL is a translation layer existing in SSDs to overcome the drawback of the SSD that cannot be modified in place, and has garbage collection and caching functions in addition to the map table management function. In this study, we focus on caching function, compare and analyze the cache implementation methodologies, and propose improved methods. Typical cache implementations divide the cache into groups, manage and retrieve the caches in the group as a linked list. Thus, searches are made in the order of the linked list. In contrast, we propose a method of sequential searching using the search area group of a cache registered in the map table regardless of the linked list and cache group. Experimental results show that the proposed method has a 2.5 times improvement over the conventional method.

효과적 채널 검색을 위한 채널 목록 기반 무선 인지 시스템 (Cognitive radio system based on channel list for efficient channel searching)

  • 이영두;구인수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2009년도 정보 및 제어 심포지움 논문집
    • /
    • pp.284-286
    • /
    • 2009
  • In this paper, we consider a cognitive radio system operating as secondary user. It uses an empty channel that is not currently used by primary users having the license to the channel. In the previous works, secondary user looks for an empty channel by choosing any channel in order or randomly and by sensing the channel to distinguish whether primary users are using. But if primary user is fixed type, we will find an empty channel faster than the mentioned channel selecting methods by using a method considering prior information about cases that primary user used the channel, since it is possible to analogize the channel access possibility of primary user according to regular time and position. Therefore, we propose a channel searching method based on the channel list for the purpose of reducing the channel searching time and improving throughput of secondary users. Firstly, we determine a weighting value of each channel based on the history of channel activities of primary users. This value is added to current channel state buffer and we search an empty channel from channel with smallest value to one with the biggest value. Finally, we compare the performances of the proposed method with those of the sequential channel searching and the random channel searching methods in terms of the average channel searching time and the average number of transmissions of secondary user.

  • PDF

Microblog User Geolocation by Extracting Local Words Based on Word Clustering and Wrapper Feature Selection

  • Tian, Hechan;Liu, Fenlin;Luo, Xiangyang;Zhang, Fan;Qiao, Yaqiong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권10호
    • /
    • pp.3972-3988
    • /
    • 2020
  • Existing methods always rely on statistical features to extract local words for microblog user geolocation. There are many non-local words in extracted words, which makes geolocation accuracy lower. Considering the statistical and semantic features of local words, this paper proposes a microblog user geolocation method by extracting local words based on word clustering and wrapper feature selection. First, ordinary words without positional indications are initially filtered based on statistical features. Second, a word clustering algorithm based on word vectors is proposed. The remaining semantically similar words are clustered together based on the distance of word vectors with semantic meanings. Next, a wrapper feature selection algorithm based on sequential backward subset search is proposed. The cluster subset with the best geolocation effect is selected. Words in selected cluster subset are extracted as local words. Finally, the Naive Bayes classifier is trained based on local words to geolocate the microblog user. The proposed method is validated based on two different types of microblog data - Twitter and Weibo. The results show that the proposed method outperforms existing two typical methods based on statistical features in terms of accuracy, precision, recall, and F1-score.

세부설계사항을 고려한 자동최적설계 프로그램 개발 (Development of Automated Optimum Design Program Considering the Design Details)

  • 장준호
    • 한국재난관리표준학회지
    • /
    • 제4권1호
    • /
    • pp.49-55
    • /
    • 2011
  • 본 연구는 철근 콘크리트 구조물의 새로운 자동화 최적설계 알고리즘을 제시하였다. 기존의 주철근과 콘크리트 단면사이즈 등의 국한된 최적설계 범위를 벗어나 철근의 부착길이, 매입길이, 콘크리트 커버두께 등 세부설계사항까지 모두 고려한 실무에 적합한 효용성 높은 설계알고리즘을 제시함으로써 앞으로 실무분야에 많은 기여를 할 수 있다고 보여 진다.

  • PDF

캠페인 효과 제고를 위한 자기 최적화 변수 선택 알고리즘 (Self-optimizing feature selection algorithm for enhancing campaign effectiveness)

  • 서정수;안현철
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.173-198
    • /
    • 2020
  • 최근 온라인의 비약적인 활성화로 캠페인 채널들이 다양하게 확대되면서 과거와는 비교할 수 없을 수준의 다양한 유형들의 캠페인들이 기업에서 수행되고 있다. 하지만, 고객의 입장에서는 중복 노출로 인한 캠페인에 대한 피로감이 커지면서 스팸으로 인식하는 경향이 있고, 기업입장에서도 캠페인에 투자하는 비용은 점점 더 늘어났지만 실제 캠페인 성공률은 오히려 더 낮아지고 있는 등 캠페인 자체의 효용성이 낮아지고 있다는 문제점이 있어 실무적으로 캠페인의 효과를 높이고자 하는 다양한 연구들이 지속되고 있다. 특히 최근에는 기계학습을 이용하여 캠페인의 반응과 관련된 다양한 예측을 해보려는 시도들이 진행되고 있는데, 이 때 캠페인 데이터의 다양한 특징들로 인해 적절한 특징을 선별하는 것은 매우 중요하다. 전통적인 특징 선택 기법으로 탐욕 알고리즘(Greedy Algorithm) 중 SFS(Sequential Forward Selection), SBS(Sequential Backward Selection), SFFS(Sequential Floating Forward Selection) 등이 많이 사용되었지만 최적 특징만을 학습하는 모델을 생성하기 때문에 과적합의 위험이 크고, 특징이 많은 경우 분류 예측 성능 하락 및 학습시간이 많이 소요된다는 한계점이 있다. 이에 본 연구에서는 기존의 캠페인에서의 효과성 제고를 위해 개선된 방식의 특징 선택 알고리즘을 제안한다. 본 연구의 목적은 캠페인 시스템에서 처리해야 하는 데이터의 통계학적 특성을 이용하여 기계 학습 모델 성능 향상의 기반이 되는 특징 부분 집합을 탐색하는 과정에서 기존의 SFFS의 순차방식을 개선하는 것이다. 구체적으로 특징들의 데이터 변형을 통해 성능에 영향을 많이 끼치는 특징들을 먼저 도출하고 부정적인 영향을 미치는 특징들은 제거를 한 후 순차방식을 적용하여 탐색 성능에 대한 효율을 높이고 일반화된 예측이 가능하도록 개선된 알고리즘을 적용하였다. 실제 캠페인 데이터를 이용해 성능을 검증한 결과, 전통적인 탐욕알고리즘은 물론 유전자알고리즘(GA, Genetic Algorithm), RFE(Recursive Feature Elimination) 같은 기존 모형들 보다 제안된 모형이 보다 우수한 탐색 성능과 예측 성능을 보임을 확인할 수 있었다. 또한 제안 특징 선택 알고리즘은 도출된 특징들의 중요도를 제공하여 예측 결과의 분석 및 해석에도 도움을 줄 수 있다. 이를 통해 캠페인 유형별로 중요 특징에 대한 분석과 이해가 가능할 것으로 기대된다.

고차원 멀티미디어 데이터 검색을 위한 벡터 근사 비트맵 색인 방법 (Vector Approximation Bitmap Indexing Method for High Dimensional Multimedia Database)

  • 박주현;손대온;낭종호;주복규
    • 정보처리학회논문지D
    • /
    • 제13D권4호
    • /
    • pp.455-462
    • /
    • 2006
  • 고차원 데이터 공간에서의 효과적인 검색을 위해 최근 VA-file[1], LPC-file[2] 등과 같이 벡터 근사에 기반을 둔 필터링 색인 방법들이 연구되었다. 필터링 색인 방법은 벡터를 근사한 작은 크기의 색인 정보를 사용하여 근사 거리를 계산하고, 이를 사용하여 질의 벡터와 유사하지 않은 대부분의 벡터들을 빠른 시간 안에 검색 대상에서 제외한다. 즉, 실제 벡터 대신 근사 벡터를 읽어 디스크 I/O 시간을 줄여 전체 검색 속도를 향상시키는 것이다. 하지만 VA-file 이나 LPC-file은 근사 거리를 구하는 방법이 순차 검색과 같거나 복잡하기 때문에 검색 속도 향상 효과가 그리 크지 않다는 문제점을 가지고 있다. 본 논문은 이러한 근사 거리 계산 시간을 줄이기 위하여 새로운 비트맵 색인 구조를 제안한다. 근사 거리 계산속도의 향상을 위하여, 각 객체의 값을 특성 벡터 공간상의 위치를 나타내는 비트 패턴으로 저장하고, 객체 사이의 거리를 구하는 연산은 실제 벡터 값의 연산보다 속도가 훨씬 빠른 XOR 비트 연산으로 대체한다. 실험에 의하면 본 논문이 제안하는 방법은 기존 벡터 근사 접근 방법들과 비교하여 데이터 읽기시간은 더 크지만, 계산 시간을 크게 줄임으로써 전체 검색 속도는 순차 검색의 약 4배, 기존의 방법들보다는 최대 2배의 성능이 향상되었다. 결과적으로, 데이터베이스의 속도가 충분히 빠른 경우 기존의 벡터 근사 접근법의 필터링을 위한 계산 시간을 줄임으로써 더욱 검색 성능을 향상 시킬 수 있음을 확인할 수 있다.

FEA based optimization of semi-submersible floater considering buckling and yield strength

  • Jang, Beom-Seon;Kim, Jae Dong;Park, Tae-Yoon;Jeon, Sang Bae
    • International Journal of Naval Architecture and Ocean Engineering
    • /
    • 제11권1호
    • /
    • pp.82-96
    • /
    • 2019
  • A semi-submersible structure has been widely used for offshore drilling and production of oil and gas. The small water plane area makes the structure very sensitive to weight increase in terms of payload and stability. Therefore, it is necessary to lighten the substructure from the early design stage. This study aims at an optimization of hull structure based on a sophisticated yield and buckling strength in accordance with classification rules. An in-house strength assessment system is developed to automate the procedure such as a generation of buckling panels, a collection of required panel information, automatic buckling and yield check and so on. The developed system enables an automatic yield and buckling strength check of all panels composing the hull structure at each iteration of the optimization. Design variables are plate thickness and stiffener section profiles. In order to overcome the difficulty of large number of design variables and the computational burden of FE analysis, various methods are proposed. The steepest descent method is selected as the optimization algorithm for an efficient search. For a reduction of the number of design variables and a direct application to practical design, the stiffener section variable is determined by selecting one from a pre-defined standard library. Plate thickness is also discretized at 0.5t interval. The number of FE analysis is reduced by using equations to analytically estimating the stress changes in gradient calculation and line search steps. As an endeavor to robust optimization, the number of design variables to be simultaneously optimized is divided by grouping the scantling variables by the plane. A sequential optimization is performed group by group. As a verification example, a central column of a semi-submersible structure is optimized and compared with a conventional optimization of all design variables at once.