• 제목/요약/키워드: kernel feature

검색결과 191건 처리시간 0.02초

History of the Photon Beam Dose Calculation Algorithm in Radiation Treatment Planning System

  • Kim, Dong Wook;Park, Kwangwoo;Kim, Hojin;Kim, Jinsung
    • 한국의학물리학회지:의학물리
    • /
    • 제31권3호
    • /
    • pp.54-62
    • /
    • 2020
  • Dose calculation algorithms play an important role in radiation therapy and are even the basis for optimizing treatment plans, an important feature in the development of complex treatment technologies such as intensity-modulated radiation therapy. We reviewed the past and current status of dose calculation algorithms used in the treatment planning system for radiation therapy. The radiation-calculating dose calculation algorithm can be broadly classified into three main groups based on the mechanisms used: (1) factor-based, (2) model-based, and (3) principle-based. Factor-based algorithms are a type of empirical dose calculation that interpolates or extrapolates the dose in some basic measurements. Model-based algorithms, represented by the pencil beam convolution, analytical anisotropic, and collapse cone convolution algorithms, use a simplified physical process by using a convolution equation that convolutes the primary photon energy fluence with a kernel. Model-based algorithms allowing side scattering when beams are transmitted to the heterogeneous media provide more precise dose calculation results than correction-based algorithms. Principle-based algorithms, represented by Monte Carlo dose calculations, simulate all real physical processes involving beam particles during transportation; therefore, dose calculations are accurate but time consuming. For approximately 70 years, through the development of dose calculation algorithms and computing technology, the accuracy of dose calculation seems close to our clinical needs. Next-generation dose calculation algorithms are expected to include biologically equivalent doses or biologically effective doses, and doctors expect to be able to use them to improve the quality of treatment in the near future.

GPGPU 기반 Convolutional Neural Network의 효율적인 스레드 할당 기법 (Efficient Thread Allocation Method of Convolutional Neural Network based on GPGPU)

  • 김민철;이광엽
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권10호
    • /
    • pp.935-943
    • /
    • 2017
  • 많은 양의 데이터 기반으로 학습하는 neural network 중 이미지 분류나 음성 인식 등에 사용되어 지고 있는 CNN(Convolution neural network)는 현재까지도 우수한 성능을 가진 구조로 계속적으로 발전되고 있다. 제한된 자원을 가진 임베디드 시스템에서 활용하기에는 많은 어려움이 있다. 그래서 미리 학습된 가중치를 사용하지만 여전히 한계점이 있기 때문에 이를 해결하기 위해 GPU의 범용 연산을 위해서 사용하는 GP-GPU(General-Purpose computing on Graphics Processing Units)를 활용하는 추세다. CNN은 단순하고 반복적인 연산을 수행하기 때문에 SIMT(Single Instruction Multiple Thread)기반의 GPGPU에서 스레드 할당과 활용 방법에 따라 연산 속도가 많이 달라진다. 스레드로 Convolution 연산과 Pooling 연산을 수행할 때 쉬어야 하는 스레드가 발생하는 데 이러한 문제를 해결하기 위해 남은 스레드가 다음 피쳐맵과 커널 계산에 활용되는 방법을 사용함으로써 연산 속도를 증가시켰다.

딥러닝 기반의 초분광영상 분류를 사용한 환경공간정보시스템 활용 (Deep Learning-based Hyperspectral Image Classification with Application to Environmental Geographic Information Systems)

  • 송아람;김용일
    • 대한원격탐사학회지
    • /
    • 제33권6_2호
    • /
    • pp.1061-1073
    • /
    • 2017
  • 본 연구는 4차 산업의 핵심기술인 인공지능과 환경공간정보의 융합을 통한 정보생산 및 활용가능성을 제시하고자 대표적인 딥러닝(deep-learning) 기법인 CNN(Convolutional Neural Network)을 이용한 영상분류를 수행하였다. CNN은 학습을 통해 스스로 분류기준에 따른 커널의 속성을 결정하며, 최적의 특징영상(feature map)을 추출하여 화소를 분류한다. 본 연구에서는 CNN network를 구성하여 기존의 영상처리 기법으로 해결이 어려웠던 분광특성이 유사한 물질간의 분류 및 GIS속성정보에 따른 분류를 수행하였으며, 항공초분광센서인 CASI(Compact Airborne Spectrographic imager)와 AISA(Airborne Imaging Spectrometer for Application)로 취득된 영상을 이용하였다. 실험대상지역은 총 3곳이며, Site 1과 Site 2는 감자, 양파, 벼 등의 다양한 농작물을 포함하며, Site 3는 단독주거시설, 공동주거시설 등 세분류 토지피복도의 분류 항목으로 구성된 건물을 포함한다. 실험결과, 분류 정확도 96%, 99%로 농작물을 종류에 따라분류하였으며, 96%의 정확도로 건물을 용도에 따라 분류하였다. 본 연구의 결과를 환경공간정보 서비스에 활용하기 위하여 계절별 농작물의 종류를 제공할 수 있는 환경주제도를 제안하였으며, 기존의 토지피복도와 최신 GIS자료를 이용한 세분류 토피지복도 제작 및 갱신 가능성을 확인하였다.

원격탐사 자료 기반 지형공간 특성분석을 위한 텍스처 영상 비교와 템플레이트 정합의 적용 (Comparison of Texture Images and Application of Template Matching for Geo-spatial Feature Analysis Based on Remote Sensing Data)

  • 류희영;전소희;이기원;권병두
    • 한국지구과학회지
    • /
    • 제26권7호
    • /
    • pp.683-690
    • /
    • 2005
  • 공간 해상도 1m 이하의 고해상도 원격 탐사 영상의 민간 활용이 활발해 짐에 따라, 이를 위한 전문 분야 별 영상 분석 방법의 개발 요구가 증가하고 있다. 다양한 영상분석 기법 중에, 주변 화소들간의 공간 분포 관계에 의해 특성이 결정되는 텍스처 영상의 분석은 이러한 목적을 위한 유용한 영상 분석 방법 중 하나이다. 이 연구에서는 원시 영상으로부터 GLCM 알고리즘에 의해 생성된 텍스처 영상에 대해서 방향 인자, 마스킹 커널의 크기, 변수의 종류에 따른 결과를 비교, 분석한 뒤 각각의 결과 영상의 지형공간 특성 분석의 적용성에 대하여 알아보았다. 또한 원시 영상과 텍스처 영상에서 특성 정보를 포함하는 템플레이트를 설정하고 이를 기준으로 반복적인 패턴을 자동으로 검색하는 템플레이트 정합 프로그램을 구현하여 이를 원시 영상과 텍스처 영상에 적용하였고, 처리 결과에 기초하여 향후 적용 가능성을 검토하였다. 이 연구의 결과는 일정한 패턴으로 나타나는 지구과학적인 지형 특성이나 고해상도 위성영상 정보를 이용한 인공 지형지물의 파악 및 분석에 효과적으로 적용될 수 있을 것으로 예상된다.

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

입력변수 및 학습사례 선정을 동시에 최적화하는 GA-MSVM 기반 주가지수 추세 예측 모형에 관한 연구 (A Study on the Prediction Model of Stock Price Index Trend based on GA-MSVM that Simultaneously Optimizes Feature and Instance Selection)

  • 이종식;안현철
    • 지능정보연구
    • /
    • 제23권4호
    • /
    • pp.147-168
    • /
    • 2017
  • 오래 전부터 학계에서는 정확한 주식 시장의 예측에 대한 많은 연구가 진행되어 왔고 현재에도 다양한 기법을 응용한 예측모형들이 연구되고 있다. 특히 최근에는 딥러닝(Deep-Learning)을 포함한 다양한 기계학습기법(Machine Learning Methods)을 이용해 주가지수를 예측하려는 많은 시도들이 진행되고 있다. 전통적인 주식투자거래의 분석기법으로는 기본적 분석과 기술적 분석방법이 사용되지만 보다 단기적인 거래예측이나 통계학적, 수리적 기법을 응용하기에는 기술적 분석 방법이 보다 유용한 측면이 있다. 이러한 기술적 지표들을 이용하여 진행된 대부분의 연구는 미래시장의 (보통은 다음 거래일) 주가 등락을 이진분류-상승 또는 하락-하여 주가를 예측하는 모형을 연구한 것이다. 하지만 이러한 이진분류로는 추세를 예측하여 매매시그널을 파악하거나, 포트폴리오 리밸런싱(Portfolio Rebalancing)의 신호로 삼기에는 적합치 않은 측면이 많은 것 또한 사실이다. 이에 본 연구에서는 기존의 주가지수 예측방법인 이진 분류 (binary classification) 방법에서 주가지수 추세를 (상승추세, 박스권, 하락추세) 다분류 (multiple classification) 체계로 확장하여 주가지수 추세를 예측하고자 한다. 이러한 다 분류 문제 해결을 위해 기존에 사용하던 통계적 방법인 다항로지스틱 회귀분석(Multinomial Logistic Regression Analysis, MLOGIT)이나 다중판별분석(Multiple Discriminant Analysis, MDA) 또는 인공신경망(Artificial Neural Networks, ANN)과 같은 기법보다는 예측성과의 우수성이 입증된 다분류 Support Vector Machines(Multiclass SVM, MSVM)을 사용하고, 이 모델의 성능을 향상시키기 위한 래퍼(wrapper)로서 유전자 알고리즘(Genetic Algorithm)을 이용한 최적화 모델을 제안한다. 특히 GA-MSVM으로 명명된 본 연구의 제안 모형에서는 MSVM의 커널함수 매개변수, 그리고 최적의 입력변수 선택(feature selection) 뿐만이 아니라 학습사례 선택(instance selection)까지 최적화하여 모델의 성능을 극대화 하도록 설계하였다. 제안 모형의 성능을 검증하기 위해 국내주식시장의 실제 데이터를 적용해본 결과 ANN이나 CBR, MLOGIT, MDA와 같은 기존 데이터마이닝 기법들이나 인공지능 알고리즘은 물론 현재까지 가장 우수한 예측 성과를 나타내는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안 모형이 보다 우수한 예측성과를 보임을 확인할 수 있었다. 특히 주가지수 추세 예측에 있어서 학습사례의 선택이 매우 중요한 역할을 하는 것으로 확인 되었으며, 모델의 성능의 개선효과에 다른 요인보다 중요한 요소임을 확인할 수 있었다.

전이학습과 딥러닝 네트워크를 활용한 고해상도 위성영상의 변화탐지 (Change Detection for High-resolution Satellite Images Using Transfer Learning and Deep Learning Network)

  • 송아람;최재완;김용일
    • 한국측량학회지
    • /
    • 제37권3호
    • /
    • pp.199-208
    • /
    • 2019
  • 운용 가능한 위성의 수가 증가하고 기술이 진보함에 따라 영상정보의 성과물이 다양해지고 많은 양의 자료가 축적되고 있다. 본 연구에서는 기구축된 영상정보를 활용하여 부족한 훈련자료의 문제를 극복하고 딥러닝(deep learning) 기법의 장점을 활용하고자 전이학습과 변화탐지 네트워크를 활용한 고해상도 위성영상의 변화탐지를 수행하였다. 본 연구에서 활용한 딥러닝 네트워크는 공간 및 분광 정보를 추출하는 합성곱 레이어(convolutional layer)와 시계열 정보를 분석하는 합성곱 장단기 메모리 레이어(convolutional long short term memory layer)로 구성되었으며, 고해상도 다중분광 영상에 최적화된 정보를 추출하기 위하여 커널(kernel)의 차원에 따른 정확도를 비교하였다. 또한, 학습된 커널 정보를 활용하기 위하여 변화탐지 네트워크의 초기 합성곱 레이어를 고해상도 항공영상인 ISPRS (International Society for Photogrammetry and Remote Sensing) 데이터셋에서 추출된 40,000개의 패치로 학습된 값으로 초기화하였다. 다시기 KOMPSAT-3A (KOrean Multi-Purpose SATllite-3A) 영상에 대한 실험 결과, 전이학습과 딥러닝 네트워크를 활용할 경우 기복 변위 및 그림자 등으로 인한 변화에 덜 민감하게 반응하며 분류 항목이 달라진 지역의 변화를 보다 효과적으로 추출할 수 있었으며, 2차원 커널보다 3차원 커널을 사용할 때 변화탐지의 정확도가 높았다. 3차원 커널은 공간 및 분광정보를 모두 고려하여 특징 맵(feature map)을 추출하기 때문에 고해상도 영상의 분류뿐만 아니라 변화탐지에도 효과적인 것을 확인하였다. 본 연구에서는 고해상도 위성영상의 변화탐지를 위한 전이학습과 딥러닝 기법의 활용 가능성을 제시하였으며, 추후 훈련된 변화탐지 네트워크를 새롭게 취득된 영상에 적용하는 연구를 수행하여 제안기법의 활용범위를 확장할 예정이다.

Mean Shift 분석을 이용한 그래프 컷 기반의 자동 칼라 영상 분할 (Graph Cut-based Automatic Color Image Segmentation using Mean Shift Analysis)

  • 박안진;김정환;정기철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권11호
    • /
    • pp.936-946
    • /
    • 2009
  • 그래프 컷(graph cuts) 방법은 주어진 사전정보와 각 픽셀간의 유사도를 나타내는 데이터 항(data term)과 이웃하는 픽셀간의 유사도를 나타내는 스무드 항(smoothness term)으로 구성된 에너지 함수를 전역적으로 최소화하는 방법으로, 최근 영상 분할에 많이 이용되고 있다. 기존 그래프 컷 기반의 영상 분할 방법에서 데이터 항을 설정하기 위해 GMM(Gaussian mixture model)을 주로 이용하였으며, 평균과 공분산을 각 클래스를 위한 사전정보로 이용하였다. 이 때문에 클래스의 모양이 초구(hyper-sphere) 또는 초타원(hyper-ellipsoid)일 때만 좋은 성능을 보이는 단점이 있다. 다양한 클래스의 모양에서 좋은 성능을 보이기 위해, 본 논문에서는 mean shift 분석 방법을 이용한 그래프 컷 기반의 자동 영상분할 방법을 제안한다. 데이터 항을 설정하기 위해 $L^*u^*{\upsilon}^*$ 색상공간에서 임의로 선택된 초기 mean으로부터 밀도가 높은 지역인 모드(mode)로 이동하는 mean의 집합들을 사전정보로 이용한다. Mean shift 분석 방법은 군집화에서 좋은 성능을 보이지만, 오랜 수행시간이 소요되는 단점이 있다. 이를 해결하기 위해 특징공간을 3차원 격자로 변형하였으며, mean의 이동은 격자에서 모든 픽셀이 아닌 3차원 윈도우내의 1차원 모멘트(moment)를 이용한다. 실험에서 GMM을 이용한 그래프 컷 기반의 영상분할 방법과 최근 많이 이용되고 있는 mean shift와 normalized cut기반의 영상분할 방법을 제안된 방법과 비교하였으며, Berkeley dataset을 기반으로 앞의 세 가지 방법보다 좋은 성능을 보였다.

웹 2.0 기반 RSS 데이터 수집 엔진의 설계 및 구현 (A Design and Implementation of RSS Data Collecting Engine based on Web 2.0)

  • 강필구;김재환;이상준;채진석
    • 한국멀티미디어학회논문지
    • /
    • 제10권11호
    • /
    • pp.1496-1506
    • /
    • 2007
  • 기존의 웹 서비스가 정적이고 수동적인데 반해 최근의 웹 서비스는 점차 동적이고 능동적으로 변화하고 있는데, 이러한 웹 서비스 변화의 흐름을 잘 반영하는 것이 웹 2.0이다. 웹 2.0의 특징은 사용자가 능동적으로 참여하여 정보를 생산하는 것인데, 이렇게 되면, 생산되는 정보의 양이 지속적으로 증가하게 되므로 더 빠르고 정확한 정보를 공유할 필요가 있다. 이러한 필요성을 충족시키는 기술이 웹 2.0의 웹 신디케이션 기술과 태그 기술이다. 웹 신디케이션은 웹 사이트의 내용을 다른 사이트나 사용자가 받아볼 수 있도록 피드를 만든다. 태그는 정보의 핵심이 되는 단어로, 여러 인터넷 사용자들이 태그를 통한 검색으로 좀 더 빠른 정보의 공유를 가능하게 한다. 이 논문에서는 웹 2.0의 핵심 기술인 웹 신디케이션과 태그의 활용을 높이기 위한 방법으로 데이터 수집 엔진을 만들어 데이터를 효율적으로 관리하는 기법을 제안하였다. 데이터 수집 엔진은 데이터베이스에 저장된 사용자의 웹 사이트 정보를 이용하여 사용자의 웹 사이트에 접속하여 업데이트된 데이터를 수집한다. 이 논문에서 제안한 데이터 수집 엔진을 사용하여 실험한 결과 기존의 기법에 비해 검색 속도가 최대 3.14배 향상되었고, 연관 태그를 구성하는데 사용되는 데이터 건수가 최대 66%까지 감소함을 확인할 수 있었다.

  • PDF

일제하(日帝下) 사립전문학교(私立專門學校) 도서관(図書館) (THE KOREAN PRIVATE COLLEGE LIBRARIES UNDER THE PERIOD OF JAPANESE CONTROL)

  • 김용성
    • 한국비블리아학회지
    • /
    • 제5권1호
    • /
    • pp.37-84
    • /
    • 1981
  • Korean private colleges under the period of Japanese control was the kernel for the educational resistance, one of the save-the-nation movements because of inculcating in Koreans the spirit of independence and self-respect under that period. Posung College Library building, erected in Commemoration of the 30th Anniversary of the Foundation, especially, was the result of Koreans systematizing ability and iron will of independence for the future generations. In this paper, an attempt to study the Korean private college libraries under the period of Japanese control is provided. The main institutions in this study are Posung College library, Chosen Christian College library (Yunhee College Library), and Ewha College Library. This study will focus to review the followings: 1. The historical background of above mentioned libraries. 2. The educational resistance under that period. 3. The comparative and analytical study of these private college libraries and Keijo Imperial University library. 4. The facilities and the basic collection development plan on the basis of presentation. 5. library services including readers services. 6. The impact of these libraries on the present private university libraries. 7. The organization and staffing pattern, and budget of these private college libraries. The followings are the outlines conclusions: 1. Korean private college libraries had been established in order to perform the educational resistance. They are one of the supporting agencies for the research activities, among the most important means of social education, and provide, no doubt, the full nutriment for hungry soul under that period. 2. These libraries have not outstripped Keijo Imperial University in collection of books as well as man power, but their collection of books coincided, in general, with their curricula, and had feature to perform the save-the-nation-movement by education. 3. The library services were appeared in the forms such as the Circulation Library, Lectures on the Use of Books and Libraries, Library Week, and Training Course for the Librarians, etc. It is thought that these activities contributed to the social and cultural development of Korea indirectly. 4. The library administration of the private colleges depended upon the director of library because of the frequent changes of staffs and the simple functional system without its middle class. 5. The Japanese Government-General in Korea gave no financial assistance to the private colleges though they were in financial difficulties more than Keijo Imperial University. 6. The ambitious ideal for foundation of universities in reality as well as in name was not achieved during that period because of the monstrous obstacle so-called the Japanese Government-General in Korea, but its ideal had a desirable effect upon these college libraries development, in particular, before and after 1935.

  • PDF