• 제목/요약/키워드: Hybrid $A^*$ algorithm

검색결과 1,781건 처리시간 0.032초

분류규칙과 강화 역전파 신경망을 이용한 이종 인공유기체의 공진화 (A Coevolution of Artificial-Organism Using Classification Rule And Enhanced Backpropagation Neural Network)

  • 조남덕;김기태
    • 정보처리학회논문지B
    • /
    • 제12B권3호
    • /
    • pp.349-356
    • /
    • 2005
  • 동적이고 비정형적인 환경에서 작업을 수행하기 위해 인공유기체를 이용하는 응용 분야가 빠른 속도로 확대되고 있다. 이러한 분야에서 인공유기체의 행동 지식 표현법으로 일반적인 프로그래밍 또는 전통적인 인공지능 방법을 사용하면, 예측치 못한 상황으로 인한 빈번한 변경과 나쁜 응답성의 문제가 발생한다. 이들 문제들을 기계학습적으로 해결하기 위한 방법으로는 유전자 프로그래밍과 진화 신경망이 대표적이다. 그러나 아직까지도 인공유기체의 학습방법이 문제가 되고 있으며, 같은 환경 속에 서식하는 인공유기체의 종이 같아서 여러생명체를 대표할수 없는 문제점이 있다. 본 논문에서는 학습의 속도와 질을 향상시키기 위해 강화역전파 신경망과 분류규칙을 이용하였으며, 한 환경속에 서식하는 인공유기체의 종을 달리하였다. 제안된 모델을 평가하기 위해서 이종간 인공유기체 집단이 한 가상환경속에서 서로 경쟁하면서 생활하는 시뮬레이터를 설계 및 구현하였고, 그들의 행동진화를 수행결과로 보여주었으며, 타시스템과의 비교분석을 하였다. 결과적으로, 학습의 속도와 질적인 면에서 제안된 모델이 모두 우수한 것을 확인하였다. 본 모델의 특징으로는, 유전자 알고리즘에 의해서 염색체에 표현된 분류 규칙들과 신경망의 학습이 동시에 수행되며, 분류 규칙과 강화역전파 신경망의 2단계의 처리 과정으로 인하여 학습 능력이 강화된다는 점이다.

새로운 혼합알고리즘을 이용한 CPFS 내에서의 일어나는 동적 열전달의 수식화 및 해석 (Modeling and analysis of dynamic heat transfer in the cable penetration fire stop system by using a new hybrid algorithm)

  • 윤인섭;윤종필;권성필
    • 한국가스학회지
    • /
    • 제7권4호
    • /
    • pp.44-52
    • /
    • 2003
  • 본 논문은 원자력발전소 방화벽에 설치된 케이블관통부 충전시스템(CPFS: Cable penetration fire stop) 안에서 일어나는 동적 열전달 현상을 수식화하고, 새로운 혼합알고리즘을 이용해서 수치적으로 계산하여, 3차원 그래픽으로 나타내는 작업에 관한 연구이다. CPFS 내에서의 열전도 현상을 주어진 초기조건과 경계조건하에서 포물선 편미분방정식(Parabolic PDE)으로 수식화하였다. 계산을 단순화하기 위하여 전체 열 흐름을 z-축직선상에서의 일어나는 열전도 성분과 x-y-좌표 평면상에서 일어나는 열전도 성분으로 나누었다. z-축과 평행한 직선상에서 일어나는 열전도를 나타내는 PDE는 연속과완화법(SOR: Sequential over-relaxation)을 이용하여 유한불연속 점들에 대한 연립상미분방정식(ODE)으로 만들어서 풀었고, x-y-좌표 평면상에서 일어나는 열전도에 관한 PDE는 Galerkin 유한요소법(FEM: Finite element method)을 적용하여 ODE로 전환해서 풀었다. 여기서 시간과 공간의 함수인 온도는 각 직선상의 점들과 각 평면상의 요소절점들에 대해서 일정한 시간간격으로 초기온도와 경계온도를 업데이트하여 번갈아 가며 계산한다. 이러한 일련의 계산결과를 바탕으로 CPFS시스템 내에서의 온도분포의 동적인 변화를 계산해 낼 수 있었다. 결론적으로 관통하는 케이블이 CPFS시스템의 온도분포에 매우 중요한 역할을 한다는 것을 알 수 있었다. 시뮬레이션 결과는 CPFS내의 온도분포를 쉽게 이해할 수 있도록 3차원 그래픽으로 나타냈으며, 관통하는 케이블이 방화시스템의 온도분포에 매우 중요한 영향을 끼친다는 것을 알 수 있었다. 마지막으로 계산결과를 실험결과와 직접 비교함으로써, 개발된 모델과 계산 알고리즘의 정당성을 보였다.

  • PDF

OFDM 변복조를 위한 단일 메모리 구조의 FFT/IFFT 코어 생성기 (A single-memory based FFT/IFFT core generator for OFDM modulation/demodulation)

  • 임창완;전흥우;신경욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.253-256
    • /
    • 2009
  • 본 논문에서는 OFDM 기반의 통신 시스템용 FFT/IFFT 코어 생성기(FFT_Core_Gen)를 구현하였다. FFT_Core_Gen은 $N=64{\times}2^k$($0{\leq}k{\leq}7$)의 8가지 FFT/IFFT 코어의 Verilog-HDL 코드를 생성한다. 생성되는 FFT/IFFT 코어는 in-place 방식의 단일 메모리 구조를 기반으로 하며, FFT 길이에 따라 radix-4와 radix-2 DIF 알고리듬의 혼합 구조가 적용된다. 또한, 메모리 감소와 연산 정밀도 향상을 위하여 중간 결과값의 크기에 따른 조건적 스케일링이 연산 stage 단위로 적용되도록 하였으며, 내부 데이터와 격자계수는 각각 14비트를 사용한다. FFT_Core_Gen에서 생성되는 FFT/IFFT 코어의 연산 정밀도는 최소 58-dB (N=8,192)에서부터 최대 63-dB (N=64)의 SQNR을 갖는다. 생성되는 코어를 $0.35-{\mu}m$ CMOS 표준 셀로 합성한 결과 75-MHz@3.3-V의 속도로 동작 가능하여 64점 FFT 연산에 $2.55-{\mu}s$가 소요되고, 8192점 FFT 연산에 $762.7-{\mu}s$가 소요되어 OFDM 기반의 무선 랜, DMB, DVB 시스템의 요구조건을 만족한다.

  • PDF

재무예측을 위한 Support Vector Machine의 최적화 (Optimization of Support Vector Machines for Financial Forecasting)

  • 김경재;안현철
    • 지능정보연구
    • /
    • 제17권4호
    • /
    • pp.241-254
    • /
    • 2011
  • Support vector machines(SVM)은 비교적 최근에 등장한 데이터마이닝 기법이지만, 재무, CRM 등의 경영학 분야에서 많이 연구되고 있다. SVM은 인공신경망과 필적할 만큼의 예측 정확도를 보이는 사례가 많았지만, 암상자로 불리는 인공신경망 모형에 비해 구축된 예측모형의 구조를 이해하기 쉽고, 인공신경망에 비해 과도적합의 가능성이 적어서 적은 수의 데이터에서도 적용 가능하다는 장점을 가지고 있다. 하지만, 일반적인 SVM을 이용하려면, 인공신경망과 마찬가지로 여러 가지 설계요소들을 설계자가 선택하여야 하기 때문에 임의성이 높고, 국부 최적해에 수렴할 가능성도 크다. 또한, 많은 수의 데이터가 존재하는 경우에는 데이터를 분석하고 이용하는데 시간이 소요되고, 종종 잡음이 심한 데이터가 포함된 경우에는 기대하는 수준의 예측성과를 얻지 못할 가능성이 있다. 본 연구에서는 일반적인 SVM의 장점을 그대로 유지하면서, 전술한 두 가지 단점을 보완한 새로운 SVM 모형을 제안한다. 본 연구에서 제안하는 모형은 사례선택기법을 일반적인 SVM에 융합한 것으로 대용량의 데이터에서 예측에 불필요한 데이터를 선별적으로 제거하여 예측의 정확도와 속도를 제고할 수 있는 방법이다. 본 연구에서는 잡음이 많고 예측이 어려운 것으로 알려진 재무 데이터를 활용하여 제안 모형의 유용성을 확인하였다.

교수내용지식을 위한 하이브리드 지식 표현 기법 (A Hybrid Knowledge Representation Method for Pedagogical Content Knowledge)

  • 김용범;오필우;김영식
    • 인지과학
    • /
    • 제16권4호
    • /
    • pp.369-386
    • /
    • 2005
  • 지능형 교수 시스템(ITS: Intelligent Tutoring System)이 기존의 CAI의 제한적 기능을 극복하고, 내장한 지식베이스에 의해 다양한 학습자들의 변인들을 고려한 개별화된 학습 환경을 제공하지만, 교육현장에는 교수내용지식 표현 방법의 부재와 투자 비용의 비효율성으로 인하여 실제적인 개발물은 전무한 상태이다. 이러한 문제점을 해소하기 위하여 ITS에서의 지식표현 기법과 구축된 지식베이스의 재사용에 대한 연구가 필요하다. 교수내용지식의 특성을 고려하여 본 연구에서는 기존의 신경논리망의 한계점을 해결할 수 있도록 지식의 다중 결합체 구성, 이를 이용한 학습의 맥락 설명을 연구의 대상으로 삼았다. 또한 형성된 지식결합체는 군집화하여 지식베이스 객체로 사용하고, 결합체의 자기 학습에 의해 적응적인 지식베이스 객체로의 성장 가능성을 제고한다. 따라서 본 연구에서는 신경논리망의 논리추론, 그리고 인지구조에서 노드의 위상적 불변성을 근거로, 교수내용지식과 객체지향적 개념이 포함된 '확장된 개념의 신경논리망(X-Neuronet: eXtended Neural Logic Network)'을 제안하고, 이 기법에 대한 타당성을 검증하였다. X-Neuronet은 표현의 대상이 되는 지식을 관성과 가변성을 가지는 방향성 결합체로 정의하고, 표현을 위한 기본 개념, 노드의 처리와 연산을 위한 논리연산자, 노드값과 가중치의 결정, 노드활성을 위한 전파 규칙 학습 알고리즘 등을 제공한다.

  • PDF

반도체 검증을 위한 MPI 기반 클러스터에서의 대용량 FDTD 시뮬레이션 연산환경 구축 (Implementation of Massive FDTD Simulation Computing Model Based on MPI Cluster for Semi-conductor Process)

  • 이승일;김연일;이상길;이철훈
    • 한국콘텐츠학회논문지
    • /
    • 제15권9호
    • /
    • pp.21-28
    • /
    • 2015
  • 반도체 공정에서는 소자 내부의 물리량 계산을 통해 불순물의 움직임을 해석하여 결점을 검출하는 시뮬레이션을 수행하게 된다. 이를 위해 유한 차분 시간 영역 알고리즘(Finite-Difference Time-Domain, 이하 FDTD)과 같은 수치해석 기법이 사용된다. 반도체 칩의 집적도 향상으로 인하여 소자의 크기는 나노스케일 시대로 접어들었으며, 시뮬레이션 사이즈 또한 커지고 있는 추세이다. 이에 따라 CPU와 GPU 같은 하나의 연산 장치에서 수행할 수 없는 문제와 다중의 연산 장치로 구성된 한 대의 컴퓨터에서 수행할 수 없는 문제가 발생하기도 한다. 이러한 문제로 인해 분산 병렬처리를 통한 FDTD 알고리즘 연구가 진행되고 있다. 하지만 기존의 연구들은 단일 연산장치만을 이용하기 때문에 GPU를 사용하는 경우 연산 속도는 빠르나 메모리의 제한이 있으며 CPU의 경우 GPU에 비해 연산 속도가 느린 단점이 존재한다. 이를 해결하기 위해 본 논문에서는 CPU, GPU의 이기종 연산 장치를 포함하는 컴퓨터로 구축된 클러스터 상에서 작업 사이즈에 제한되지 않고 시뮬레이션 수행이 가능한 컴퓨팅 모델을 구현하였다. 점대점 통신 기반의 MPI 라이브러리를 이용하여 연산 장치 간 통신을 통한 시뮬레이션을 테스트 하였고 사용하는 연산 장치의 종류와 수에 상관없이 시뮬레이션이 정상 동작함을 확인하였다.

가상화 환경에서 세밀한 자원 활용률 적용을 위한 스케일 기법 (Fine Grained Resource Scaling Approach for Virtualized Environment)

  • 이돈혁;오상윤
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권7호
    • /
    • pp.11-21
    • /
    • 2013
  • 최근 데이터 센터와 같은 대규모 컴퓨터 자원을 운용함에 있어 가상화 기술을 적용하여 컴퓨팅 자원을 동적으로 사용할 수 있게 됨에 따라 탄력적인 프로비져닝이 가능하게 되었다. 현재 운영되고 있는 클라우드 시스템에서는 이러한 동적 프로비져닝을 위해 스케일업 또는 스케일아웃형태의 스케일링을 지원하고있으며, 이 방식은 사용자 요구조건의 만족을 주목적으로 하며 방대한 컴퓨팅 자원을 기반으로 하는 공공 클라우드 시스템 운용에 부합한다. 그러나 제한된 컴퓨팅자원으로 하는 사설 클라우드의 운영을 위해서는 보다 높은 운영 효율을 위해 세밀한 자원활용을 위한 스케일링 기법이 요구된다. 본 논문에서는 사설 클라우드에서 높은 자원활용률을 얻기 위해 가상화 기술인 동적자원할당과 Live Migration 기법을 이용하여 스케일업과 스케일아웃을 복합적으로 사용한 서버 스케일링 아키텍처를 설계하고 이에 따른 알고리즘을 설계하였다. 이를 통해 세밀하게 단계별로 스케일링을 진행하여 서버 관리와 비용의 부담을 줄이고 서버 자원의 이용률을 최적화함으로써 서비스가 안정적으로 유지되도록 할 수 있다. 성능평가를 통해 제안한 구조와 알고리즘이 접속자 수에 따른 스케일 아웃을 수행하는 방식에 비해 높은 자원활용률을 보이는 것을 확인하였다.

인공 신경경망과 사례기반추론을 혼합한 지능형 진단 시스템 (The hybrid of artificial neural networks and case-based reasoning for intelligent diagnosis system)

  • 이길재;김창주;안병렬;김문현
    • 정보처리학회논문지B
    • /
    • 제15B권1호
    • /
    • pp.45-52
    • /
    • 2008
  • 최근 IT 서비스 발달과 함께 고장제어, 고장의 원인분석 등의 복잡한 문제에 대하여 적합한 해결책을 제시할 수 있는 효과적인 진단시스템의 필요성이 커지고 있다. 따라서 본 논문에서는 지능형 진단 시스템분야에서의 시스템의 성능을 향상시키고, 최적의 진단을 수행하고자 사례기반추론과 인공신경망을 혼합한 지능형 진단 시스템을 제안 한다. 사례기반추론은 과거의 사례(경험)를 통해 현재의 제시된 문제를 해결하는 추론방식으로, 지식 획득이 덜 복잡하고, 정형화되기 어려운 규칙이나 문제영역이 불분명한 분야를 효율적으로 추론할 수 있다. 하지만 사례기반추론만을 이용해 추론된 사례는 증상에 대해 다수의 원인을 추론하게 된다. 이때 추론된 증상에 따른 다수의 원인은 동일한 가중치를 가져 불필요한 원인까지 진단해야 하는 문제점이 있다. 이러한 문제를 해결하고자 인공신경망의 오류역전파 학습 알고리즘을 이용하여 증상에 대한 원인들의 쌍을 학습 시킨 후 각각의 증상에 대한 원인의 가중치를 구해 제시된 증상에 대해 가장 발생 가능성이 높은 원인을 찾아내어, 보다 명확하고 신뢰성 있는 진단을 하는 데 그 목적이 있다.

자연어 처리 및 기계학습을 활용한 제조업 현장의 품질 불량 예측 방법론 (A Method for Prediction of Quality Defects in Manufacturing Using Natural Language Processing and Machine Learning)

  • 노정민;김용성
    • Journal of Platform Technology
    • /
    • 제9권3호
    • /
    • pp.52-62
    • /
    • 2021
  • 제조업 현장에서 제작 공정 수행 전 품질 불량 위험 공정을 예측하여 사전품질관리를 수행하는 것은 매우 중요한 일이다. 하지만 기존 엔지니어의 역량에 의존하는 방법은 그 제작공정의 종류와 수가 다양할수록 인적, 물리적 한계에 부딪힌다. 특히 원자력 주요기기 제작과 같이 제작공정이 매우 광범위한 도메인 영역에서는 그 한계가 더욱 명확하다. 본 논문은 제조업 현장에서 자연어 처리 및 기계학습을 활용하여 품질 불량 위험 공정을 예측하는 방법을 제시하였다. 이를 위해 실제 원자력발전소에 설치되는 주기기를 제작하는 공장에서 6년 동안 수집된 제작 기록의 텍스트 데이터를 활용하였다. 텍스트 데이터의 전처리 단계에서는 도메인 지식이 잘 반영될 수 있도록 단어사전에 Mapping 하는 방식을 적용하였고, 문장 벡터화 과정에서는 N-gram, TF-IDF, SVD를 결합한 하이브리드 알고리즘을 구성하였다. 다음으로 품질 불량 위험 공정을 분류해내는 실험에서는 k-fold 교차 검증을 적용하고 Unigram에서 누적 Trigram까지 여러 케이스로 나누어 데이터셋에 대한 객관성을 확보하였다. 또한, 분류 알고리즘으로 나이브 베이즈(NB)와 서포트 벡터 머신(SVM)을 사용하여 유의미한 결과를 확보하였다. 실험결과 최대 accuracy와 F1-score가 각각 0.7685와 0.8641로서 상당히 유효한 수준으로 나타났다. 또한, 수행해본 적이 없는 새로운 공정을 예측하여 현장 엔지니어들의 투표와의 비교를 통해서 실제 현장에 자연스럽게 적용할 수 있음을 보여주었다.

Network-on-Chip에서의 최적 통신구조 설계 (Optimal Design of Network-on-Chip Communication Sturcture)

  • 윤주형;황영시;정기석
    • 대한전자공학회논문지SD
    • /
    • 제44권8호
    • /
    • pp.80-88
    • /
    • 2007
  • 매우 복잡한 시스템의 보다 효율적인 설계를 위한 차세대 SoC를 위해 중요한 것은 시스템의 고적용성과 고확장성이다. 이를 위해 최근 들어 급속히 관심이 높아지는 것이 계산 모듈중심의 시스템 설계를 탈피하여 통신 중심으로 시스템 설계를 보는 communication-based 설계 방법론이며, 그 중 대표적으로 많은 관심을 모으고 있는 것이 Network-on-Chip (NoC)이다. 이는 모듈간의 직접적인 연결에 의한 데이터의 통신 구조를 가진 일반적인 SoC 설계에서의 취약한 확장성과 통신 구조의 고정성을 극복하기 위해, 데이터를 패킷화하고, 이를 네트워크 인터페이스 및 라우터에 의한 가변적인 구조에 의해 전송함으로써 통신 구조의 적용성과 확장성을 제공하려는 노력이다. 하지만 확장성과 적용성에 치중하다 보면 성능과 면적에 대한 비용이 너무 커져서 실제로 기존의 연결 방법과 비교하여 실용성이 없을 수 있다. 그래서 본 연구에서는 통신 패턴의 면밀한 분석을 통하여 매우 성능에 중요하고 또 빈번한 통신 패턴에 대해서는 기존의 연결 방식을 고수하면서, 전체적인 연결성 및 확장성을 유지하는 알고리즘을 제시한다. 이 방법을 통해서 최소 30%의 네트워크 인터페이스 및 라우터 구조가 훨씬 간단한 구조로 바뀔 수 있었으며, 이로 인한 연결성 (connectivity) 및 확장성에 대한 손실은 거의 없었다. 시뮬레이션 결과에 의하면 통신 구조의 최적화를 통해서 연결에 소요되는 시간적 성능은 49.19% 향상되었고 면적의 측면에서도 24.03% 향상되었음이 입증되었다.