• Title/Summary/Keyword: 분할 학습

Search Result 897, Processing Time 0.031 seconds

A spectral efficient transmission method for ofdm-based power line communications (직교주파수분할다중화기반 전력선통신에서 대역 효율적인 전송기법)

  • Kim, Byung Wook
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.19 no.4
    • /
    • pp.25-32
    • /
    • 2014
  • Powerline communications (PLC) is a promising medium for network access technology where smart grid aided network services can be provided. In the presence of frequency selective fading in the PLC channel, orthogonal frequency division multiplexing (OFDM) is a technique for reliable communications. This paper presents a spectral efficient method using a superimposed hidden pilot for OFDM-based PLC systems. Based on the scheme using a hidden pilot, it is possible to estimate the channel with no consumption of bandwidth, but with utilization of power allocated to the hidden pilot. Computer simulations showed that the proposed scheme provides higher achievable data rate than that of the conventional schemes in low voltage and medium voltage transmission lines.

Prediction of water level in sewer pipes using machine learning (기계학습을 활용한 하수관로 수위 예측)

  • Heesung Lim;Hyunuk An;Hyojin Lee;Inhyeok Song
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.93-93
    • /
    • 2023
  • 최근 범지구적인 기후변화로 인해 도시유역의 홍수 발생 빈도가 빈번하게 발생하고 있다. 이로 인해 불투수성이 큰 도시지역의 침수 등의 자연재해 증가로 인명 및 재산피해가 발생하고 있다. 이에 따라 하수도의 제 기능을 수행하고 있다면 문제가 없지만 이상기후로 인한 기록적인 폭우에 의해 침수가 발생하고 있다. 홍수 및 집중호우와 같은 극치사상의 발생빈도가 증가됨에 따라 강우 사상의 변동에 따른 하수관로의 수위를 예측하고 침수에 대해 대처하기 위해 과거 수위에 따른 수위 예측은 중요할 것으로 판단된다. 본 연구에서는 수위 예측 연구에 많이 활용되고 있는 시계열 학습에 탁월한 LSTM 알고리즘을 활용한 하수관로 수위 예측을 진행하였다. 데이터의 학습과 검증을 수행하기 위해 실제 하수관로 수위 데이터를 수집하여 연구를 수행하였으며, 대상자료는 서울특별시 강동구에 위치한 하수관로 수위 자료를 활용하였다. 하수관로 수위 예측에는 딥러닝 알고리즘 RNN-LSTM 알고리즘을 활용하였으며, RNN-LSTM 알고리즘은 하천의 수위 예측에 우수한 성능을 보여준 바 있다. 1분 뒤 하수관로 수위 예측보다 5분, 10분 뒤 또는 1시간 3시간 등 다양한 분석을 실시하였다. 데이터 분석을 위해 하수관로 수위값 변동이 심한 1주일을 선정하여 분석을 실시하였다. 연구에는 Google에서 개발한 딥러닝 오픈소스 라이브러리인 텐서플로우를 활용하였으며, 하수관로 수위 고유번호 25-0001을 대상으로 예측을 하였다. 학습에는 2012년 ~ 2018년의 하수관로 수위 자료를 활용하였으며, 모형의 검증을 위해 결정계수(R square)를 이용하여 통계분석을 실시하였다.

  • PDF

Teachers' Opinions on Differences of Detail Learning Content According to High School Textbooks - Focused on Utilizing of Definite Integral - (고등학교 교과서 내용 영역별 세부 학습내용 차이에 대한 교사 의견 조사: 정적분의 활용을 중심으로)

  • Yang, Seong Hyun
    • School Mathematics
    • /
    • v.17 no.4
    • /
    • pp.555-570
    • /
    • 2015
  • General and subject guideline for new curriculum are confirmed and plan to announced on September 2015. The development of instructional materials according to them will proceed. Because textbooks have the role and function to determine and control the direction and scope of teaching and learning, Textbook plays a very important role in the situation where teachers and students meet. Thus we get a significant effect depending on the structure of textbook. In this study, we analyzed differences of detail learning content according to high school textbooks focused on utilizing of definite integral. After creating the questionnaire based on it, The survey was conducted targeting for 369 high school mathematics teachers belong to 14 education offices of cities and provinces are polled out by accidental sampling method. Analyzing the results of the survey, We searched various teaching and learning method that arise due to differences of detail learning content according to high school textbooks and thereby it explored the impact on students' mathematics learning. Through this, Our intention is to offer implication about the structure of textbook detail learning contents and to derive the improvements about textbook compilation system.

A Hybrid System of Wavelet Transformations and Neural Networks Using Genetic Algorithms: Applying to Chaotic Financial Markets (유전자 알고리즘을 이용한 웨이블릿분석 및 인공신경망기법의 통합모형구축)

  • Shin, Taek-Soo;Han, In-Goo
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.03a
    • /
    • pp.271-280
    • /
    • 1999
  • 인공신경망을 시계열예측에 적용하는 경우에 고려되어야 할 문제중, 특히 모형에 적합한 입력변수의 생성이 중요시되고 있는데, 이러한 분야는 인공신경망의 모형생성과정에서 입력변수에 대한 전처리기법으로써 다양하게 제시되어 왔다. 가장 최근의 입력변수 전처리기법으로써 제시되고 있는 신호처리기법은 전통적 주기분할처리방법인 푸리에변환기법(Fourier transforms)을 비롯하여 이를 확장시킨 개념인 웨이블릿변환기법(wavelet transforms) 등으로 대별될 수 있다. 이는 기본적으로 시계열이 다수의 주기(cycle)들로 구성된 상이한 시계열들의 집합이라는 가정에서 출발하고 있다. 전통적으로 이러한 시계열은 전기 또는 전자공학에서 주파수영역분할, 즉 고주파 및 저주파수를 분할하기 위한 기법에 적용되어 왔다. 그러나, 최근에는 이러한 연구가 다양한 분야에 활발하게 응용되기 시작하였으며, 그 중의 대표적인 예가 바로 경영분야의 재무시계열에 대한 분석이다. 전통적으로 재무시계열은 장, 단기의사결정을 가진 시장참여자들간의 거래특성이 시계열에 각기 달리 가격으로 반영되기 때문에 이러한 상이한 집단들의 고요한 거래움직임으로 말미암아 예를 들어, 주식시장이 프랙탈구조를 가지고 있다고 보기도 한다. 이처럼 재무시계열은 다양한 사회현상의 집합체라고 볼 수 있으며, 그만큼 예측모형을 구축하는데 어려움이 따른다. 본 연구는 이러한 시계열의 주기적 특성에 기반을 둔 신호처리분석으로서 기존의 시계열로부터 노이즈를 줄여 주면서 보다 의미있는 정보로 변환시켜줄 수 있는 웨이블릿분석 방법론을 새로운 필터링기법으로 사용하여 현재 많은 연구가 진행되고 있는 인공신경망의 모형결합을 통해 기존연구과는 다른 새로운 통합예측방법론을 제시하고자 한다. 본 연구에서는 제시하는 통합방법론은 크게 2단계 과정을 거쳐 예측모형으로 완성이 된다. 즉, 1차 모형단계에서 원시 재무시계열은 먼저 웨이브릿분석을 통해서 노이즈가 필터링 되는 동시에, 과거 재무시계열의 프랙탈 구조, 즉 비선형적인 움직임을 보다 잘 반영시켜 주는 다차원 주기요소를 가지는 시계열로 분해, 생성되며, 이렇게 주기에 따라 장단기로 분할된 시계열들은 2차 모형단계에서 신경망의 새로운 입력변수로서 사용되어 최종적인 인공 신경망모델을 구축하는 데 반영된다. 기존의 주기분할방법론은 모형개발자입장에서 여러 가지 통계기준치중에서 최적의 기준치를 합리적으로 선택해야 하는 문제가 추가적으로 발생하며, 본 연구에서는 이상의 제반 문제들을 개선시키기 위해 통합방법론으로서 기존의 인공신경망모형을 구조적으로 확장시켰다. 이 모형에서 기존의 입력층 이전단계에 새로운 층이 정의된다. 이렇게 해서 생성된 새로운 통합모형은 기존모형에서 생성되는 기본적인 학습파라미터와 더불어, 본 연구에서 새롭게 제시된 주기분할층의 파라미터들이 모형의 학습성과를 높이기 위해 함께 고려된다. 한편, 이러한 학습과정에서 추가적으로 고려해야 할 파라미터 갯수가 증가함에 따라서, 본 모델의 학습성과가 local minimum에 빠지는 문제점이 발생될 수 있다. 즉, 웨이블릿분석과 인공신경망모형을 모두 전역적으로 최적화시켜야 하는 문제가 발생한다. 본 연구에서는 이 문제를 해결하기 위해서, 최근 local minimum의 가능성을 최소화하여 전역적인 학습성과를 높여 주는 인공지능기법으로서 유전자알고리즘기법을 본 연구이 통합모델에 반영하였다. 이에 대한 실증사례 분석결과는 일일 환율예측문제를 적용하였을 경우, 기존의 방법론보다 더 나운 예측성과를 타나내었다.

  • PDF

A Fast Vector Quantization using Subregion-based Caches of Codeword Indexes (부영역 기반 코드워드 인덱스 캐시를 사용한 고속 벡터 양자화)

  • Kim, Yong-Ha;Kim, Dae-Jin;Bang, Seung-Yang
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.4
    • /
    • pp.369-379
    • /
    • 2001
  • 본 논문은 부영역 분할과 코드워드 인텍스의 캐시 개념을 이용하여 벡터 양자화를 위한 고속코드북 생성 및 부호화 방법을 제안한다. 제안한 방법은 인접한 입력 벡터는 대개 코드북내 특정 코드워드에 의해 나타내어지는 국부성에 바탕을 두고 있다. 초기에 모든 학습 벡터가 거리에 기반한 근접성을 이용하여 정해진 수의 부영역으로 분할된다. 각 부영역에 하나의 코드워드 인덱스 캐시가 할당되는데 이 캐시는 학습 초기에는 전체 코드북 크기에 대응하는 코드워드 인덱스를 갖는다. 학습이 진행되면서 입력 벡터가 갖는 국부성 때문에 각 부영역내 캐시중 사용되지 않는 코드워드 인덱스가 점차 발생하게 되므로 이들은 LRU(Least Recently Used) 삭제 알고리즘에 의해 제거된다. 학습이 진행됨에 따라 부영역 캐시에는 주어진 입력 벡터에 의해 참조되는 코드워드 인덱스만이 남게 되므로 한 학습 주기 동한 필요한 학습 시간이 점차 짧아지게 되어 전체적으로 코드북 생성 시간을 크게 줄일 수 있게 된다. 제안한 방법은 매 학습주기마다, 코드워드 인덱스 삭제 후보 중 주어진 부영역 중심으로부터 거리에 의해 멀리 떨어진 것부터 반만을 제거함에 따라. 복원된 영상의 화질 열화가 거의 없다. 시뮬레이션 결과 제안한 방법은 기존의 LBG 방법에 비해 화질 열화는 거의 없지만 코드북 생성 (또는 부호화) 속도를 2.6-5.4배 (또는3.7-18.8배) 향상시킨다.

  • PDF

1D CNN and Machine Learning Methods for Fall Detection (1D CNN과 기계 학습을 사용한 낙상 검출)

  • Kim, Inkyung;Kim, Daehee;Noh, Song;Lee, Jaekoo
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.10 no.3
    • /
    • pp.85-90
    • /
    • 2021
  • In this paper, fall detection using individual wearable devices for older people is considered. To design a low-cost wearable device for reliable fall detection, we present a comprehensive analysis of two representative models. One is a machine learning model composed of a decision tree, random forest, and Support Vector Machine(SVM). The other is a deep learning model relying on a one-dimensional(1D) Convolutional Neural Network(CNN). By considering data segmentation, preprocessing, and feature extraction methods applied to the input data, we also evaluate the considered models' validity. Simulation results verify the efficacy of the deep learning model showing improved overall performance.

Parallel Learning System Optimization using ADMM (ADMM을 이용한 병렬 학습 시스템 최적화)

  • Kim, Min-Woo;Lim, Hwan-Hee;Lee, Byung-Jun;Kim, Kyung-Tae;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.07a
    • /
    • pp.49-50
    • /
    • 2018
  • 인공지능의 급격한 발전으로 빅 데이터의 활용이 증가되었지만 이로 인해 머신 러닝에서 일어나는 문제들 또한 해결해야할 과제이다. 본 논문에서는 이에 따라 초래되는 문제들 중 학습 데이터가 많아질 경우의 문제들을 방지하기 위해, 알고리즘의 수정 대신 병렬 처리 기반 시스템을 제안한다. 본 논문에서는 Alternating Direction Method of Multiplier(ADMM) 알고리즘을 소개하고 ADMM 기반의 최적화 기법을 적용하여 병렬 학습 시스템 최적화를 제안하였다.

  • PDF

Context-awareness Clustering with Adaptive Learning Algorithm (상황인식 기반 클러스터링의 적응적 자율 학습 분할 알고리즘)

  • Do, Yun-hyung;Jeong, Rae-jin;Jeon, Il-Kyu;Lee, Kang-whan
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.501-503
    • /
    • 2022
  • 본 논문은 이동 노드간 클러스터링을 함에 있어 보다 효율적인클러스터링을 제공하고 유지하기 위한 딥러닝의 자율학습에 따른 군집적 알고리즘을 제안한다. 대부분의 클러스터링 군집데이터를 처리함에 있어 상호관계에 따른 분류체계가 제공된다. 이러한 경우 새롭게 입력되거나 변경된 데이터가 비교정보에서 오염된 정보로 분류될 경우 기존 분류된 클러스터링으로부터 오염된 정보로 이해되어 군집성을 저하시키는 요인으로 작용 할 수가 있다. 본 논문에서는 이러한 상황정보를 이해하고 클러스터링을 유지할 수 있는 자율학습기반의 학습 모델을 제시 한다.

  • PDF

Overexposure Image Restoration Using a Generative Adversarial Network (적대적 생성 신경망을 활용한 과다 노출 영상 복원 방법)

  • Kim, Taeha;Yang, Seongyeop;Kang, Byeongkeun;Lee, Yeejin
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.10-13
    • /
    • 2021
  • 본 논문에서는 과다 노출된 영상을 영상 간 변환(Image-to-Image Translation)을 위해 설계된 적대적 생성 신경망(Generative Adversarial Network)을 활용하여 복원하는 연구를 수행한다. 과다 노출 복원을 위한 기존의 연구에서 과다 노출 영역 판별, 밝기 회복, 색상 보정 과정을 거치는데, 영상 내 과다 노출 영역을 판별하는 과정에서 임의로 결정하는 파라미터에 의해 복원된 영상 결과가 달라지는 한계점을 극복하기 위해 종단간(End-to-End) 신경망을 학습시켜 과다 노출 영역을 별도의 파라미터 선택과 분할된 과정 없이 한 번에 복원하는 방법을 제안한다. 영상 간 변환 신경망 학습에 필요한 과다 노출 여부로 도메인이 분할된 데이터셋은 게임 소프트웨어를 활용하여 만들어 사용하였다. 본 연구에서는 신경망이 생성한 영상이 실제로 과다 노출 영역을 탐지하여 복원하는 것을 확인하였다. 그리고 과다 노출 영역을 탐지하여 복원하는 과정을 학습 단계별로 확인함으로써 신경망이 실제로 과다 노출 복원 과정을 학습함을 보였다.

  • PDF

Machine Learning based Fall Detection (기계학습 기반의 낙상 검출)

  • Kim, InKyung;Kim, DaeHee;Heo, Seongsil;Lee, JaeKoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.547-550
    • /
    • 2020
  • 노인인구의 급증에 따라 노인 건강에 대한 관심이 증가하였고 노인 낙상을 발견하는 방법에 대한 관심도 함께 대두되기 시작하였다. 낙상 사고의 경우 낙상을 일으킨 원인보다 낙상이 제때 감지되지 않아 발생하는 이후의 상황이 더욱 심각한 결과를 초래한다. 따라서 낙상이 발생했을 때, 바로 낙상을 감지할 수 있는 시스템 구축이 필요하다. 다양한 낙상 검출을 위한 방법이 존재하지만 그 중 착용이 쉽고 원격지에서 관찰 및 관리가 가능한 웨어러블(Wearable) 기기의 센서 데이터를 사용한 낙상 검출을 진행하였다. 본 논문에서는 머신 러닝 모델들을 사용해서 낙상 검출 성능 비교 및 적절한 모델을 제안한다. 기계 학습 기반의 모델인 결정 트리(Decision Tree), 랜덤 포래스트(Random Forest), SVM(Support Vector Machine)을 사용하여 실제 측정된 데이터에 낙상 검출 학습 능력을 정량화하였다. 또한, 모델의 입력 값에 적용한 데이터 분할, 전처리 및 특징 추출 방법을 통해서 효율적인 낙상 검출을 위한 기계학습 관점에서의 타당성을 판단하고자 한다.