• 제목/요약/키워드: vector approximation

검색결과 185건 처리시간 0.026초

GEOMETRIC AND APPROXIMATION PROPERTIES OF GENERALIZED SINGULAR INTEGRALS IN THE UNIT DISK

  • Anastassiou George A.;Gal Sorin G.
    • 대한수학회지
    • /
    • 제43권2호
    • /
    • pp.425-443
    • /
    • 2006
  • The aim of this paper is to obtain several results in approximation by Jackson-type generalizations of complex Picard, Poisson-Cauchy and Gauss-Weierstrass singular integrals in terms of higher order moduli of smoothness. In addition, these generalized integrals preserve some sufficient conditions for starlikeness and univalence of analytic functions. Also approximation results for vector-valued functions defined on the unit disk are given.

독립적인 벡터 근사에 의한 분산 벡터 근사 트리의 성능 강화 (Performance Enhancement of a DVA-tree by the Independent Vector Approximation)

  • 최현화;이규철
    • 정보처리학회논문지D
    • /
    • 제19D권2호
    • /
    • pp.151-160
    • /
    • 2012
  • 지금까지 제안된 분산 고차원 색인의 대부분은 균일한 분포를 가지는 데이터 집합에서 좋은 검색 성능을 나타내나, 편향되거나 클러스터를 이루는 데이터의 집합에서는 그 성능이 크게 감소된다. 본 논문은 강하게 클러스터를 이루거나 편향된 분포를 가지는 데이터 집합에 대한 분산 벡터 근사 트리의 k-최근접 검색 성능을 향상시키는 방법을 제안한다. 기본 아이디어는 전체 데이터를 클러스터링하는 상위 트리의 말단 노드가 담당하는 데이터 공간의 크기를 계산하고, 그 공간 상의 특징 벡터를 근사하는 데 사용되는 비트의 수를 달리하여 벡터 근사의 식별 능력을 보장하는 것이다. 즉, 고밀도 클러스터에는 더 많은 수의 비트를 할당하는 것이다. 우리는 합성 데이터와 실세계 데이터를 가지고 분산 hybrid spill-tree와 기존 분산 벡터 근사 트리와의 성능 비교 실험을 수행하였다. 실험 결과는 확장된 분산 벡터 근사 트리의 검색 성능이 균일하지 않은 분포의 데이터 집합에서 크게 향상되었음을 보인다.

함수 근사를 위한 점증적 서포트 벡터 학습 방법 (Incremental Support Vector Learning Method for Function Approximation)

  • 임채환;박주영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.135-138
    • /
    • 2002
  • This paper addresses incremental learning method for regression. SVM(support vector machine) is a recently proposed learning method. In general training a support vector machine requires solving a QP (quadratic programing) problem. For very large dataset or incremental dataset, solving QP problems may be inconvenient. So this paper presents an incremental support vector learning method for function approximation problems.

  • PDF

함수근사를 위한 서포트 벡터 기계의 커널 애더트론 알고리즘 (Kernel Adatron Algorithm of Support Vector Machine for Function Approximation)

  • 석경하;황창하
    • 한국정보처리학회논문지
    • /
    • 제7권6호
    • /
    • pp.1867-1873
    • /
    • 2000
  • 함수근사는 과학과 고학부야에서 공범위하게 응용된다. 시포트 벡터 기계(support vector machine, SVM)는 원래 분류를 위해 계안되어져 문자인식, 얼굴인식 등의 응용분야에서 좋은 결과를 보여주고 있다. 최근 SVM이론 함수근사로 확장되어 많이 활용되려 하고 있다. 그러나 함수근사를 위한 SVM 알고리즘은 QP(quadratic proramming)문제와 관련되어있어 계산에 시간이 걸리며 QP를 위한 패키지가 있어야 한다. 본 논문에서는 함수근사를 위해 커널-애더트론 알고리즘을 이용한 SVM을 제안하고 QP를 이용한 SVM과 성능을 비교하고자 한다.

  • PDF

COMMON FIXED POINT AND INVARIANT APPROXIMATION RESULTS

  • Abbas, Mujahid;Kim, Jong-Kyu
    • 대한수학회보
    • /
    • 제44권3호
    • /
    • pp.537-545
    • /
    • 2007
  • Necessary conditions for the existence of common fixed points for noncommuting mappings satisfying generalized contractive conditions in the setup of certain metrizable topological vector spaces are obtained. As applications, related results on best approximation are derived. Our results extend, generalize and unify various known results in the literature.

직교 다항식 근사법과 고차 통계를 이용한 전력 외란의 자동식별 (Automatic classification of power quality disturbances using orthogonal polynomial approximation and higher-order spectra)

  • 이재상;이철호;남상원
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1997년도 한국자동제어학술회의논문집; 한국전력공사 서울연수원; 17-18 Oct. 1997
    • /
    • pp.1436-1439
    • /
    • 1997
  • The objective of this paper is to present an efficient and practical approach to the automatic classification of power quality(PQ) disturbances, where and orthogonal polynomial approximation method is emloyed for the detection and localization of PQ disturbances, and a feature vector, newly extracted form the bispectra of the detected signal, is utilized for the automatic rectgnition of the various types of PQ disturbances. To demonstrae the performance and applicabiliyt of the proposed approach, some simulation results are provided.

  • PDF

Forward Backward PAST (Projection Approximation Subspace Tracking) Algorithm for the Better Subspace Estimation Accuracy

  • Lim, Jun-Seok
    • The Journal of the Acoustical Society of Korea
    • /
    • 제27권1E호
    • /
    • pp.25-29
    • /
    • 2008
  • The projection approximation subspace tracking (PAST) is one of the attractive subspace tracking algorithms, because it estimatesthe signal subspace adaptively and continuously. Furthermore, the computational complexity is relatively low. However, the algorithm still has room for improvement in the subspace estimation accuracy. In this paper, we propose a new algorithm to improve the subspace estimation accuracy using a normally ordered input vector and a reversely ordered input vector simultaneously.

Multiclass Support Vector Machines with SCAD

  • Jung, Kang-Mo
    • Communications for Statistical Applications and Methods
    • /
    • 제19권5호
    • /
    • pp.655-662
    • /
    • 2012
  • Classification is an important research field in pattern recognition with high-dimensional predictors. The support vector machine(SVM) is a penalized feature selector and classifier. It is based on the hinge loss function, the non-convex penalty function, and the smoothly clipped absolute deviation(SCAD) suggested by Fan and Li (2001). We developed the algorithm for the multiclass SVM with the SCAD penalty function using the local quadratic approximation. For multiclass problems we compared the performance of the SVM with the $L_1$, $L_2$ penalty functions and the developed method.

ON THE LEBESGUE SPACE OF VECTOR MEASURES

  • Choi, Chang-Sun;Lee, Keun-Young
    • 대한수학회보
    • /
    • 제48권4호
    • /
    • pp.779-789
    • /
    • 2011
  • In this paper we study the Banach space $L^1$(G) of real valued measurable functions which are integrable with respect to a vector measure G in the sense of D. R. Lewis. First, we investigate conditions for a scalarly integrable function f which guarantee $f{\in}L^1$(G). Next, we give a sufficient condition for a sequence to converge in $L^1$(G). Moreover, for two vector measures F and G with values in the same Banach space, when F can be written as the integral of a function $f{\in}L^1$(G), we show that certain properties of G are inherited to F; for instance, relative compactness or convexity of the range of vector measure. Finally, we give some examples of $L^1$(G) related to the approximation property.