• 제목/요약/키워드: Simulation-based learning

검색결과 1,081건 처리시간 0.028초

A hybrid algorithm for the synthesis of computer-generated holograms

  • Nguyen The Anh;An Jun Won;Choe Jae Gwang;Kim Nam
    • 한국광학회:학술대회논문집
    • /
    • 한국광학회 2003년도 하계학술발표회
    • /
    • pp.60-61
    • /
    • 2003
  • A new approach to reduce the computation time of genetic algorithm (GA) for making binary phase holograms is described. Synthesized holograms having diffraction efficiency of 75.8% and uniformity of 5.8% are proven in computer simulation and experimentally demonstrated. Recently, computer-generated holograms (CGHs) having high diffraction efficiency and flexibility of design have been widely developed in many applications such as optical information processing, optical computing, optical interconnection, etc. Among proposed optimization methods, GA has become popular due to its capability of reaching nearly global. However, there exits a drawback to consider when we use the genetic algorithm. It is the large amount of computation time to construct desired holograms. One of the major reasons that the GA' s operation may be time intensive results from the expense of computing the cost function that must Fourier transform the parameters encoded on the hologram into the fitness value. In trying to remedy this drawback, Artificial Neural Network (ANN) has been put forward, allowing CGHs to be created easily and quickly (1), but the quality of reconstructed images is not high enough to use in applications of high preciseness. For that, we are in attempt to find a new approach of combiningthe good properties and performance of both the GA and ANN to make CGHs of high diffraction efficiency in a short time. The optimization of CGH using the genetic algorithm is merely a process of iteration, including selection, crossover, and mutation operators [2]. It is worth noting that the evaluation of the cost function with the aim of selecting better holograms plays an important role in the implementation of the GA. However, this evaluation process wastes much time for Fourier transforming the encoded parameters on the hologram into the value to be solved. Depending on the speed of computer, this process can even last up to ten minutes. It will be more effective if instead of merely generating random holograms in the initial process, a set of approximately desired holograms is employed. By doing so, the initial population will contain less trial holograms equivalent to the reduction of the computation time of GA's. Accordingly, a hybrid algorithm that utilizes a trained neural network to initiate the GA's procedure is proposed. Consequently, the initial population contains less random holograms and is compensated by approximately desired holograms. Figure 1 is the flowchart of the hybrid algorithm in comparison with the classical GA. The procedure of synthesizing a hologram on computer is divided into two steps. First the simulation of holograms based on ANN method [1] to acquire approximately desired holograms is carried. With a teaching data set of 9 characters obtained from the classical GA, the number of layer is 3, the number of hidden node is 100, learning rate is 0.3, and momentum is 0.5, the artificial neural network trained enables us to attain the approximately desired holograms, which are fairly good agreement with what we suggested in the theory. The second step, effect of several parameters on the operation of the hybrid algorithm is investigated. In principle, the operation of the hybrid algorithm and GA are the same except the modification of the initial step. Hence, the verified results in Ref [2] of the parameters such as the probability of crossover and mutation, the tournament size, and the crossover block size are remained unchanged, beside of the reduced population size. The reconstructed image of 76.4% diffraction efficiency and 5.4% uniformity is achieved when the population size is 30, the iteration number is 2000, the probability of crossover is 0.75, and the probability of mutation is 0.001. A comparison between the hybrid algorithm and GA in term of diffraction efficiency and computation time is also evaluated as shown in Fig. 2. With a 66.7% reduction in computation time and a 2% increase in diffraction efficiency compared to the GA method, the hybrid algorithm demonstrates its efficient performance. In the optical experiment, the phase holograms were displayed on a programmable phase modulator (model XGA). Figures 3 are pictures of diffracted patterns of the letter "0" from the holograms generated using the hybrid algorithm. Diffraction efficiency of 75.8% and uniformity of 5.8% are measured. We see that the simulation and experiment results are fairly good agreement with each other. In this paper, Genetic Algorithm and Neural Network have been successfully combined in designing CGHs. This method gives a significant reduction in computation time compared to the GA method while still allowing holograms of high diffraction efficiency and uniformity to be achieved. This work was supported by No.mOl-2001-000-00324-0 (2002)) from the Korea Science & Engineering Foundation.

  • PDF

자연 프루닝과 베이시안 선택에 의한 신경회로망 일반화 성능 향상 (Improving Generalization Performance of Neural Networks using Natural Pruning and Bayesian Selection)

  • 이현진;박혜영;이일병
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권3_4호
    • /
    • pp.326-338
    • /
    • 2003
  • 신경회로망 설계 및 모델선택의 목표는 최적의 구조를 가지는 일반화 성능이 우수한 네트워크를 구성하는 것이다. 하지만 학습데이타에는 노이즈(noise)가 존재하고, 그 수도 충분하지 않기 때문에 최종적으로 표현하고자 하는 진확률 분포와 학습 데이타에 의해 표현되는 경험확률분포(empirical probability density) 사이에는 차이가 발생한다. 이러한 차이 때문에 신경회로망을 학습데이타에 대하여 과다하게 적합(fitting)시키면, 학습데이타만의 확률분포를 잘 추정하도록 매개변수들이 조정되어 버리고, 진확률 분포로부터 멀어지게 된다. 이러한 현상을 과다학습이라고 하며, 과다학습된 신경회로망은 학습데이타에 대한 근사는 우수하지만, 새로운 데이타에 대한 예측은 떨어지게 된다. 또한 신경회로망의 복잡도가 증가 할수록 더 많은 매개변수들이 노이즈에 쉽게 적합되어 과다학습 현상은 더욱 심화된다. 본 논문에서는 통계적인 관점을 바탕으로 신경회로망의 일반화 성능을 향상시키는 신경회로 망의 설계 및 모델 선택의 통합적인 프로세스를 제안하고자 한다. 먼저 학습의 과정에서 적응적 정규화가 있는 자연기울기 학습을 통해 수렴속도의 향상과 동시에 과다학습을 방지하여 진확률 분포에 가까운 신경회로망을 얻는다. 이렇게 얻어진 신경회로망에 자연 프루닝(natural pruning) 방법을 적용하여 서로 다른 크기의 후보 신경회로망 모델을 얻는다. 이러한 학습과 복잡도 최적화의 통합 프로세스를 통하여 얻은 후보 모델들 중에서 최적의 모델을 베이시안 정보기준에 의해 선택함으로써 일반화 성능이 우수한 최적의 모델을 구성하는 방법을 제안한다. 또한 벤치마크 문제를 이용한 컴퓨터 시뮬레이션을 통하여, 제안하는 학습 및 모델 선택의 통합프로세스의 일반화 성능과 구조 최적화 성능의 우수성을 검증한다.

PBL/S-PBL 패키지 평가도구 개발 및 평가 : 보건계열(학)과와 간호(학)과를 중심으로 (Development and Evaluation Frameworks for PBL/S-PBL Packages: in the case of the Dept. in Allied Health Professionals and Nursing)

  • 양정화;김수진;김효실;임진형;채수경
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제33권3호
    • /
    • pp.203-211
    • /
    • 2010
  • 본 연구의 목적은 PBL/S-PBL에 사용되는 패키지(교재)를 측정할 수 있는 타당하고 신뢰할 수 있는 평가도구를 개발하는 것이다. 이러한 목적을 실현하기 위해 문헌 고찰을 통하여 PBL 및 S-PBL 패키지를 측정하는 도구의 3항목 15문항의 예비문항들을 만들었다. 예비문항을 대학의 교수 9인의 전문가를 통해 내용타당도를 검증하여 PBL은 14문항, S-PBL은 15문항으로 구성하였다. 개발된 평가도구의 구성 타당도 검증을 위하여 요인분석을 하였다. PBL은 동기부여 3항목, 통합성 7항목, 체계성 4항목, 총 14항목으로, S-PBL은 동기부여 4항목, 통합성 6항목, 체계성 5항목, 총 15항목으로 이루어진 평가도구가 제시되었으며 Cronbach's $\alpha$계수가 PBL은 0.9112, S-PBL은 0.9166으로 적절한 신뢰도를 갖는 평가도구로 검증되었다.

원거리 무인기 신호 식별을 위한 특징추출 알고리즘 (Feature Extraction Algorithm for Distant Unmmaned Aerial Vehicle Detection)

  • 김주호;이기배;배진호;이종현
    • 전자공학회논문지
    • /
    • 제53권3호
    • /
    • pp.114-123
    • /
    • 2016
  • 본 논문에서는 무인항공기의 엔진 음향 신호를 탐지하기 위한 효과적인 특징 추출 방법을 제안하고 검증한다. 엔진 음향신호는 기본주파수와 배음이 정수배 관계를 갖는 조화 복합음(Harmonic complex tone)으로 구성되며, 각 주파수의 시간에 따른 변화는 연속적이다. 이러한 특성을 이용하여 기본주파수의 정수배와 실제 배음 주파수 차이의 평균과 분산, 주파수 변화량 등으로 구성된 특징벡터를 제안하였다. 모의 실험을 수행한 결과 제안한 특징벡터는 목표신호와 다양한 간섭 신호에 대해 우수한 변별력을 보였으며, 시간에 따라 주파수가 변하는 경우에도 영향을 받지 않고 안정적인 결과를 보였다. 원거리에서 실측된 엔진 음향신호로 부터 특징의 Fisher score를 계산하여 변별력을 비교한 결과, 제안한 특징 중 주파수에 기반한 세 가지 특징들이 신호 대 잡음비가 낮은 상황에서도 높은 변별력을 보였다. ELM 분류기를 이용해 MFCC와의 인식 성능을 비교한 결과, 제안한 방법을 이용할 경우 모의 간섭신호에 대한 오류율이 37.6% 개선되었다. 또한 신호대 잡음비가 시간에 따라 점진적으로 증가하는 경우 MFCC에 비해 4.5 dB 낮은 시점에서 목표신호 탐지가 가능하였다.

NVIDIA Jetson TX1 기반의 사람 표정 판별을 위한 YOLO 모델 FPS 향상 방법 (YOLO Model FPS Enhancement Method for Determining Human Facial Expression based on NVIDIA Jetson TX1)

  • 배승주;최현준;정구민
    • 한국정보전자통신기술학회논문지
    • /
    • 제12권5호
    • /
    • pp.467-474
    • /
    • 2019
  • 본 이 논문에서는 NVIDIA Jetson TX1에서 YOLO v2 모델의 정확도를 유지하면서 FPS를 개선하는 방법을 제안한다. 일반적으로, 딥러닝 모델에서는 연산량을 줄여 처리 속도를 높이기 위해 파라미터들을 실수형에서 정수형으로 변환하여 정수 연산을 통해 속도를 높이거나 네트워크의 깊이를 감소시키는 방법을 사용한다. 그러나 이 방법들은 인식 정확도가 떨어질 수 있다. 이 논문에서는 YOLO v2 모델을 이용해 표정인식기를 개발하고 정확도 유지 시키기 위해 정수 연산이나 네트워크 깊이 감소를 사용하는 대신, 다음 세 가지 방법을 통해 연산량 및 메모리 소모를 줄인다. 첫 번째, $3{\times}3$ 필터를 $1{\times}1$ 필터로 교체하여 각 Layer 당 매개 변수 수를 9 분의 1로 줄인다. 두 번째, TensorRT의 추론 가속 기능 중 CBR (Convolution-Add Bias-Relu)을 통해 연산량을 줄이고, 마지막으로 TensorRT를 사용하여 반복되는 동일한 연산구조를 가진 레이어를 통합하여 메모리 소비를 줄인다. 시뮬레이션 결과, 기존 YOLO v2 모델에 비해 정확도는 1 % 감소했지만 FPS는 기존 3.9 FPS에서 11 FPS로 282%의 속도 향상을 보였다.

간호대학생의 임상실습 교과의 교내실습 경험연구: 정신간호학 실습을 중심으로 (A Study on the Experience of Nursing Student's Clinical Education in School Practice: Focused on Psychiatric Nursing Practice)

  • 김현실;김은미;이동숙
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.169-178
    • /
    • 2021
  • 본 연구는 간호대학생의 정신간호학실습에 대한 교내실습 경험을 탐색하기 위한 질적 연구이다. 연구대상자는 강원도 소재 일 대학교에서 정신간호를 실습하는 3학년 학생 62명으로, 자료수집 기간은 2020.08.03.~08.20까지였다. 수집된 자료는 Colaizzi의 방법을 적용하여 분석하였다. 연구 결과 1) 현장경험에 대한 아쉬움 2) 배움을 통한 성취 3) 미래 간호사 역할에 대한 두려움 4) 과제 작성에 대한 부담감 5) 임상 긴장감으로부터 자유로움 6) 타 부서와의 협력의 중요성의 6가지 범주가 도출되었다. 교내실습 평가에서는 즉각적 피드백과 자세한 설명, 간접 체험의 내용이 긍정적으로 평가되었다. 이를 바탕으로 향후 교내실습의 효과적 운영을 위해서는 시뮬레이션 실습을 포함하여, 간접 체험실습, 온라인/비대면 실습, 대면실습 등의 다양한 콘텐츠가 적절히 활용되어 임상실습과의 격차를 줄이는 효율적 프로그램의 개발이 필요하다. 더불어 정신간호학 실습 교육에서는 치료적 의사소통 및 환청 중재와 같은 실무의 격차를 줄이기 위한 다각적 노력이 더욱 필요함을 제언하는 바이다.

Gramian angular field 기반 비간섭 부하 모니터링 환경에서의 다중 상태 가전기기 분류 기법 (Classification Method of Multi-State Appliances in Non-intrusive Load Monitoring Environment based on Gramian Angular Field)

  • 선준호;선영규;김수현;경찬욱;심이삭;이흥재;김진영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권3호
    • /
    • pp.183-191
    • /
    • 2021
  • 비간섭 부하 모니터링은 사용자 에너지 소비량의 실시간 모니터링을 통해 가전기기의 사용량 예측 및 분류를 하는 기술로, 최근 에너지 절약의 수단으로 관심이 증가하고 있다. 본 논문에서는 GAF(Gramian angular field) 기반 1차원 시계열 데이터를 2차원 행렬로 변환하는 기법과, 합성곱 신경망(convolutional neural networks)을 결합해 사용자 전력 사용량 데이터로부터 가전기기를 예측하는 시스템을 제안한다. 학습을 위해 공개 가정용 전력 데이터인 REDD(residential energy disaggregation dataset)를 사용하고, GASF(Gramian angular summation field), GADF(Gramian angular difference field)의 분류 정확도를 확인한다. 시뮬레이션 결과, 이중 상태(on/off)를 가지는 가전기기에서 두 모델 모두 97%의 정확도를 보였고, 다중 상태를 가지는 기기에서 GASF는 95%로 GADF보다 3% 높은 정확도를 보임을 확인하였다. 차후 데이터의 량을 증가시키고 모델을 최적화해 정확도와 속도를 개선할 예정이다.

다양한 데이터 전처리 기법 기반 침입탐지 시스템의 이상탐지 정확도 비교 연구 (Comparative Study of Anomaly Detection Accuracy of Intrusion Detection Systems Based on Various Data Preprocessing Techniques)

  • 박경선;김강석
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권11호
    • /
    • pp.449-456
    • /
    • 2021
  • 침입 탐지 시스템(IDS: Intrusion Detection System)은 보안을 침해하는 이상 행위를 탐지하는 기술로서 비정상적인 조작을 탐지하고 시스템 공격을 방지한다. 기존의 침입탐지 시스템은 트래픽 패턴을 통계 기반으로 분석하여 설계하였다. 그러나 급속도로 성장하는 기술에 의해 현대의 시스템은 다양한 트래픽을 생성하기 때문에 기존의 방법은 한계점이 명확해졌다. 이런 한계점을 극복하기 위해 다양한 기계학습 기법을 적용한 침입탐지 방법의 연구가 활발히 진행되고 있다. 본 논문에서는 다양한 네트워크 환경의 트래픽을 시뮬레이션 장비에서 생성한 NGIDS-DS(Next Generation IDS Dataset)를 이용하여 이상(Anomaly) 탐지 정확도를 높일 수 있는 데이터 전처리 기법에 관한 비교 연구를 진행하였다. 데이터 전처리로 패딩(Padding)과 슬라이딩 윈도우(Sliding Window)를 사용하였고, 정상 데이터 비율과 이상 데이터 비율의 불균형 문제를 해결하기 위해 AAE(Adversarial Auto-Encoder)를 적용한 오버샘플링 기법 등을 적용하였다. 또한, 전처리된 시퀀스 데이터의 특징벡터를 추출할 수 있는 Word2Vec 기법 중 Skip-gram을 이용하여 탐지 정확도의 성능 향상을 확인하였다. 비교실험을 위한 모델로는 PCA-SVM과 GRU를 사용하였고, 실험 결과는 슬라이딩 윈도우, Skip-gram, AAE, GRU를 적용하였을 때, 더 좋은 성능을 보였다.

전기차 무선충전컨트롤 모듈 EMI 방사성 잡음 저감에 관한 설계 연구 (Electric Vehicle Wireless Charging Control Module EMI Radiated Noise Reduction Design Study)

  • 홍승모
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권2호
    • /
    • pp.104-108
    • /
    • 2023
  • 최근 전기 차 시장의 확대로 인해 성능 및 안정성 문제를 보완할 친환경적인 전기 차 시장이 매우 커지고 있다. 전기 차의 화재 등 여러 안전 문제를 일으키는 전장 부품의 연동으로 인한 EMI 문제는 매번 대두되어 지고 있다. 다양한 기술들을 결합하여 최적의 충전효율을 달성하고 무선 충전 컨트롤 모듈에서 발생하는 EMI 잡음을 줄이기 위해 노력하고 있다. 본 논문은 전기자동차의 중요한 부품 중 하나인 무선충전컨트롤 모듈의 EMI 잡음 중 방사성 잡음 저감 기술을 설계하여 실험을 하였다. 무선 충전 컨트롤 모듈에서 발생하는 EMI 문제를 분석하기 위해 Ansys 시뮬레이션 툴 내 Python 기반 스크립트 기능을 활용하여 치명적인 요인에 대한 축적된 시험 데이터를 학습시켜 강화 학습을 통한 최적화 설계 기술을 적용하여 최적화된 무선충전컨트롤 모듈은 일반적인 무선충전 컨트롤 모듈 대비 25dBu V/m의 EMI 잡음 개선 효과를 보였다. 이러한 결과는 전기 자동차에서 더 안정적이고 신뢰성 높은 무선 충전 기능의 개발에 기여할 뿐만 아니라, 이를 통해 전기자동차의 사용성과 효율성을 높이며 환경친환적인 대안으로 자리 잡을 수 있게 한다.

M&W 파동 패턴과 유전자 알고리즘을 이용한 주식 매매 시스템 개발 (Development of a Stock Trading System Using M & W Wave Patterns and Genetic Algorithms)

  • 양훈석;김선웅;최흥식
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.63-83
    • /
    • 2019
  • 투자자들은 기업의 내재가치 분석, 기술적 보조지표 분석 등 복잡한 분석보다 차트(chart)에 나타난 그래프(graph)의 모양으로 매매 시점을 찾는 직관적인 방법을 더 선호하는 편이다. 하지만 패턴(pattern) 분석 기법은 IT 구현의 난이도 때문에 사용자들의 요구에 비해 전산화가 덜 된 분야로 여겨진다. 최근에는 인공지능(artificial intelligence, AI) 분야에서 신경망을 비롯한 다양한 기계학습(machine learning) 기법을 사용하여 주가의 패턴을 연구하는 사례가 많아졌다. 특히 IT 기술의 발전으로 방대한 차트 데이터를 분석하여 주가 예측력이 높은 패턴을 발굴하는 것이 예전보다 쉬워졌다. 지금까지의 성과로 볼 때 가격의 단기 예측력은 높아졌지만, 장기 예측력은 한계가 있어서 장기 투자보다 단타 매매에서 활용되는 수준이다. 이외에 과거 기술력으로 인식하지 못했던 패턴을 기계적으로 정확하게 찾아내는 데 초점을 맞춘 연구도 있지만 찾아진 패턴이 매매에 적합한지 아닌지는 별개의 문제이기 때문에 실용적인 부분에서 취약할 수 있다. 본 연구는 주가 예측력이 있는 패턴을 찾으려는 기존 연구 방법과 달리 패턴들을 먼저 정의해 놓고 확률기반으로 선택해서 매매하는 방법을 제안한다. 5개의 전환점으로 정의한 Merrill(1980)의 M&W 파동 패턴은 32가지의 패턴으로 시장 국면 대부분을 설명할 수 있다. 전환점만으로 패턴을 분류하기 때문에 패턴 인식의 정확도를 높이기 위해 드는 비용을 줄일 수 있다. 32개 패턴으로 만들 수 있는 조합의 수는 전수 테스트가 불가능한 수준이다. 그래서 최적화 문제와 관련한 연구들에서 가장 많이 사용되고 있는 인공지능 알고리즘(algorithm) 중 하나인 유전자 알고리즘(genetic algorithm, GA)을 이용하였다. 그리고 미래의 주가가 과거를 반영한다 해도 같게 움직이지 않기 때문에 전진 분석(walk-forward analysis, WFA)방법을 적용하여 과최적화(overfitting)의 실수를 줄이도록 하였다. 20종목씩 6개의 포트폴리오(portfolio)를 구성하여 테스트해 본 결과에 따르면 패턴 매매에서 가격 변동성이 어느 정도 수반되어야 하며 패턴이 진행 중일 때보다 패턴이 완성된 후에 진입, 청산하는 것이 효과적임을 확인하였다.