• 제목/요약/키워드: Computer optimization

검색결과 2,415건 처리시간 0.031초

휴리스틱 진화에 기반한 효율적 클러스터링 알고리즘 (An Efficient Clustering Algorithm based on Heuristic Evolution)

  • 류정우;강명구;김명원
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권1_2호
    • /
    • pp.80-90
    • /
    • 2002
  • 클러스터링이란 한 군집에 포함된 데이터들 간의 유사한 성질을 갖도록 데이터들을 묶는 것으로 패턴인식, 영상처리 등의 공학 분야에 널리 적용되고 있을 뿐만 아니라, 최근 많은 관심의 대상이 되고 있는 데이터 마이닝의 주요 기술로서 활발히 응용되고 있다. 클러스터링에 있어서 K-means나 FCM(Fuzzy C-means)와 같은 기존의 알고리즘들은 지역적 최적해에 수렴하는 것과 사전에 클러스터 개수를 미리 결정해야 하는 문제점을 개선하였으며, 클러스터링의 특성을 분산도와 분리도로 정의하였다. 분산도는 임의의 클러스터의 중심으로부터 포함된 데이터들이 어느 정도 흩어져 있는지를 나타내는 척도인 반면, 분리도는 임의의 데이터와 모든 클러스터 중심간의 거리의 비율로서 얻어지는 소속정도를 고려하여 클러스터 중심간의 거리를 나타내는 척도이다. 이 두 척도를 이용하여 자동으로 적절한 클러스터 개수를 결정하게 하였다. 또한 진화알고리즘의 문제점인 탐색공간의 확대에 따른 수행시간의 증가는 휴리스틱 연산을 적용함으로써 크게 개선하였다. 제안한 알고리즘의 성능 및 타당성을 보이기 위해 이차원과 다차원 실험데이타를 사용하여 실험한 결과 제안한 알고리즘의 성능이 우수함을 나타내었다.

2D 평면 표본화와 웨이브릿 변환을 이용한 효율적인 3차원 객체 간소화 알고리즘 (Efficient 3D Object Simplification Algorithm Using 2D Planar Sampling and Wavelet Transform)

  • 장명호;이행석;한규필;박양우
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권5_6호
    • /
    • pp.297-304
    • /
    • 2004
  • 본 논문에서는 컴퓨터 응용환경에서 3차원 물체를 효율적으로 표현하기 위해 웨이브릿 변환과 2D 평면 표본화를 이용한 3D 객체 간소화 알고리즘을 제안한다. 기존의 웨이브릿 변환을 이용한 메쉬의 압축 및 간소화 알고리즘은 3차원 정점에 대해서 변환을 수행하기 때문에 연결 정보가 필요한 합성과정에서 정점들을 다시 다각형으로 연결시키는 타일링 최적화 문제를 해결해야만 하는 단점을 가지고 있다. 그러나 제안한 방식은 3차원 메쉬를 2차원 평면상으로 표본화하여 각 평면에 대한 2차원 다각형을 최소화하기 때문에 변환이 용이하며 2차원 정점을 순서적으로 나열하면 2개의 1차원 배열 자체가 연결정보를 포함하기 때문에 1차원 변환으로 다각형을 변환 및 표현할 수 있다는 장점이 있다. 그리고 표본화 평면의 간격조정과 각 평면에서의 웨이브릿 계수를 선택적으로 조정함으로써 간단히 LOD를 조절할 수 있다 2차원 다각형의 간소화는 주관적 화질에 영향을 주지 않는 작은 웨이브릿 계수를 선택하여 제거함으로써 수행되어진다. 그 결과 제안된 알고리즘은 간단하지만 효율적이다. 실험을 통하여 제안한 알고리즘은 적은 외부 붕괴를 가지면서 정확한 간소화 메쉬를 보여준다는 것을 알 수 있다.

ICARP: 기회적 에너지 하베스팅 무선 네트워크를 위한 간섭 기반 충전 인지 라우팅 프로토콜 (ICARP: Interference-based Charging Aware Routing Protocol for Opportunistic Energy Harvesting Wireless Networks)

  • 김현태;나인호
    • 한국지능시스템학회논문지
    • /
    • 제27권1호
    • /
    • pp.1-6
    • /
    • 2017
  • 최근의 에너지 하베스팅(energy harvesting) 무선 네트워크에 대한 연구는 제한된 에너지 자원 문제를 해결하여 효율적으로 네트워크 수명을 연장할 수 있는 기법 개발에 집중되고 있다. 에너지 하베스팅을 통해 획득할 수 있는 에너지의 양과 효율을 향상시키기 위해서는 여러 가지 에너지 하베스팅 특성을 종합적으로 고려하여 에너지 획득과 데이터 전송을 병행하는 네트워크 구조를 설계하는 매우 중요하다. 본 논문에서는 수신측에서 간섭 정보와 충전 시간을 고려하여 네트워크 내의 에너지 하베스팅 용량을 최대화하면서 종단간 지연 시간을 최소화할 수 있는 간섭 기반의 충전 인지 라우팅 프로토콜(ICARP)을 제안한다. 이를 위해 기회적 에너지 하베스팅 무선 네트워크에서 종단간 지연시간을 최소화할 수 있도록 충전 시간을 패킷 전달의 지연 성분을 적용한 새로운 간섭 기반 충전 인지 라우팅 기준(routing metric)과 ICARP를 설계하였다. 본 논문에서 제시한 라우팅 기법을 통한 전달 지연시간의 단축은 패킷손실이나 재전송으로 인한 에너지 소비량을 줄이는 효과를 얻을 수 있다. 시뮬레이션을 이용한 성능평가를 통하여 제안된 기법이 기존의 라우팅 기법보다 패킷전달율과 종단간 지연시간 측면에서 성능이 향상됨을 보였다.

심층 CNN 기반 구조를 이용한 토마토 작물 병해충 분류 모델 (Tomato Crop Diseases Classification Models Using Deep CNN-based Architectures)

  • 김삼근;안재근
    • 한국산학기술학회논문지
    • /
    • 제22권5호
    • /
    • pp.7-14
    • /
    • 2021
  • 토마토 작물은 병해충의 영향을 많이 받기 때문에 이를 예방하지 않으면 농업 경제에 막대한 손실을 초래할 수 있다. 따라서 토마토의 다양한 병해충의 진단을 빠르고 정확하게 진단하는 시스템이 요구된다. 본 논문에서는 ImageNet 데이터 셋 상에서 다양하게 사전 학습된 딥러닝 기반 CNN 모델을 적용하여 토마토의 9가지 병해충 및 정상인 경우의 클래스를 분류하는 시스템을 제안한다. PlantVillage 데이터 셋으로부터 발췌한 토마토 잎의 이미지 셋을 3가지 딥러닝 기반 CNN 구조를 갖는 ResNet, Xception, DenseNet의 입력으로 사용한다. 기본 CNN 모델 위에 톱-레벨 분류기를 추가하여 제안 모델을 구성하였으며, 훈련 데이터 셋에 대해 5-fold 교차검증 기법을 적용하여 학습시켰다. 3가지 제안 모델의 학습은 모두 기본 CNN 모델의 계층을 동결하여 학습시키는 전이 학습과 동결을 해제한 후 학습률을 매우 작은 수로 설정하여 학습시키는 미세 조정 학습 두 단계로 진행하였다. 모델 최적화 알고리즘으로는 SGD, RMSprop, Adam을 적용하였다. 실험 결과는 RMSprop 알고리즘이 적용된 DenseNet CNN 모델이 98.63%의 정확도로 가장 우수한 결과를 보였다.

Active VM Consolidation for Cloud Data Centers under Energy Saving Approach

  • Saxena, Shailesh;Khan, Mohammad Zubair;Singh, Ravendra;Noorwali, Abdulfattah
    • International Journal of Computer Science & Network Security
    • /
    • 제21권11호
    • /
    • pp.345-353
    • /
    • 2021
  • Cloud computing represent a new era of computing that's forms through the combination of service-oriented architecture (SOA), Internet and grid computing with virtualization technology. Virtualization is a concept through which every cloud is enable to provide on-demand services to the users. Most IT service provider adopt cloud based services for their users to meet the high demand of computation, as it is most flexible, reliable and scalable technology. Energy based performance tradeoff become the main challenge in cloud computing, as its acceptance and popularity increases day by day. Cloud data centers required a huge amount of power supply to the virtualization of servers for maintain on- demand high computing. High power demand increase the energy cost of service providers as well as it also harm the environment through the emission of CO2. An optimization of cloud computing based on energy-performance tradeoff is required to obtain the balance between energy saving and QoS (quality of services) policies of cloud. A study about power usage of resources in cloud data centers based on workload assign to them, says that an idle server consume near about 50% of its peak utilization power [1]. Therefore, more number of underutilized servers in any cloud data center is responsible to reduce the energy performance tradeoff. To handle this issue, a lots of research proposed as energy efficient algorithms for minimize the consumption of energy and also maintain the SLA (service level agreement) at a satisfactory level. VM (virtual machine) consolidation is one such technique that ensured about the balance of energy based SLA. In the scope of this paper, we explore reinforcement with fuzzy logic (RFL) for VM consolidation to achieve energy based SLA. In this proposed RFL based active VM consolidation, the primary objective is to manage physical server (PS) nodes in order to avoid over-utilized and under-utilized, and to optimize the placement of VMs. A dynamic threshold (based on RFL) is proposed for over-utilized PS detection. For over-utilized PS, a VM selection policy based on fuzzy logic is proposed, which selects VM for migration to maintain the balance of SLA. Additionally, it incorporate VM placement policy through categorization of non-overutilized servers as- balanced, under-utilized and critical. CloudSim toolkit is used to simulate the proposed work on real-world work load traces of CoMon Project define by PlanetLab. Simulation results shows that the proposed policies is most energy efficient compared to others in terms of reduction in both electricity usage and SLA violation.

EEG Feature Engineering for Machine Learning-Based CPAP Titration Optimization in Obstructive Sleep Apnea

  • Juhyeong Kang;Yeojin Kim;Jiseon Yang;Seungwon Chung;Sungeun Hwang;Uran Oh;Hyang Woon Lee
    • International journal of advanced smart convergence
    • /
    • 제12권3호
    • /
    • pp.89-103
    • /
    • 2023
  • Obstructive sleep apnea (OSA) is one of the most prevalent sleep disorders that can lead to serious consequences, including hypertension and/or cardiovascular diseases, if not treated promptly. Continuous positive airway pressure (CPAP) is widely recognized as the most effective treatment for OSA, which needs the proper titration of airway pressure to achieve the most effective treatment results. However, the process of CPAP titration can be time-consuming and cumbersome. There is a growing importance in predicting personalized CPAP pressure before CPAP treatment. The primary objective of this study was to optimize the CPAP titration process for obstructive sleep apnea patients through EEG feature engineering with machine learning techniques. We aimed to identify and utilize the most critical EEG features to forecast key OSA predictive indicators, ultimately facilitating more precise and personalized CPAP treatment strategies. Here, we analyzed 126 OSA patients' PSG datasets before and after the CPAP treatment. We extracted 29 EEG features to predict the features that have high importance on the OSA prediction index which are AHI and SpO2 by applying the Shapley Additive exPlanation (SHAP) method. Through extracted EEG features, we confirmed the six EEG features that had high importance in predicting AHI and SpO2 using XGBoost, Support Vector Machine regression, and Random Forest Regression. By utilizing the predictive capabilities of EEG-derived features for AHI and SpO2, we can better understand and evaluate the condition of patients undergoing CPAP treatment. The ability to predict these key indicators accurately provides more immediate insight into the patient's sleep quality and potential disturbances. This not only ensures the efficiency of the diagnostic process but also provides more tailored and effective treatment approach. Consequently, the integration of EEG analysis into the sleep study protocol has the potential to revolutionize sleep diagnostics, offering a time-saving, and ultimately more effective evaluation for patients with sleep-related disorders.

Improved Resource Allocation Model for Reducing Interference among Secondary Users in TV White Space for Broadband Services

  • Marco P. Mwaimu;Mike Majham;Ronoh Kennedy;Kisangiri Michael;Ramadhani Sinde
    • International Journal of Computer Science & Network Security
    • /
    • 제23권4호
    • /
    • pp.55-68
    • /
    • 2023
  • In recent years, the Television White Space (TVWS) has attracted the interest of many researchers due to its propagation characteristics obtainable between 470MHz and 790MHz spectrum bands. The plenty of unused channels in the TV spectrum allows the secondary users (SUs) to use the channels for broadband services especially in rural areas. However, when the number of SUs increases in the TVWS wireless network the aggregate interference also increases. Aggregate interferences are the combined harmful interferences that can include both co-channel and adjacent interferences. The aggregate interference on the side of Primary Users (PUs) has been extensively scrutinized. Therefore, resource allocation (power and spectrum) is crucial when designing the TVWS network to avoid interferences from Secondary Users (SUs) to PUs and among SUs themselves. This paper proposes a model to improve the resource allocation for reducing the aggregate interface among SUs for broadband services in rural areas. The proposed model uses joint power and spectrum hybrid Firefly algorithm (FA), Genetic algorithm (GA), and Particle Swarm Optimization algorithm (PSO) which is considered the Co-channel interference (CCI) and Adjacent Channel Interference (ACI). The algorithm is integrated with the admission control algorithm so that; there is a possibility to remove some of the SUs in the TVWS network whenever the SINR threshold for SUs and PU are not met. We considered the infeasible system whereby all SUs and PU may not be supported simultaneously. Therefore, we proposed a joint spectrum and power allocation with an admission control algorithm whose better complexity and performance than the ones which have been proposed in the existing algorithms in the literature. The performance of the proposed algorithm is compared using the metrics such as sum throughput, PU SINR, algorithm running time and SU SINR less than threshold and the results show that the PSOFAGA with ELGR admission control algorithm has best performance compared to GA, PSO, FA, and FAGAPSO algorithms.

누적 가중치 변화의 시각화를 통한 심층 신경망 분석시스템 (Deep Neural Network Analysis System by Visualizing Accumulated Weight Changes)

  • 양태린;박진호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제29권3호
    • /
    • pp.85-92
    • /
    • 2023
  • 최근 ChatGPT나 자율주행 자동차 등의 인공지능 분야의 급속한 발전으로 인해 인공지능에 대한 관심이 높아졌다. 그러나 아직 인공지능은 학습 과정에서 알 수 없는 요소가 많이 존재하여 모델을 개선하거나 최적화하기 위해서 필요 이상의 시간과 노력을 들여야 하는 경우가 많다. 따라서, 인공지능 모델의 학습 과정에서 가중치 변화를 명확하게 이해하고 해당 변화를 효과적으로 분석할 수 있는 도구 또는 방법론이 절실하게 요구되고 있다. 본 연구에서는 이러한 점을 해결하기 위해 누적 가중치 변화량을 시각화해주는 시스템을 제안한다. 시스템은 학습의 일정한 기간마다 가중치를 구하고 가중치의 변화를 누적시켜서 누적 가중치로 저장하여 3차원 공간상에 나타내게 된다. 이로 인해 보는 이로 하여금 한눈에 레이어의 구조와 현재의 가중치 변화량이 이해되기 쉽게 구성하였다. 이러한 연구를 통해 인공지능 모델의 학습 과정이 어떻게 진행되는지에 대한 이해와 모델의 성능 향상에 도움이 되는 방향으로 하이퍼 파라미터를 변경할 수 있는 지표를 얻게 되는 등 인공지능 학습 과정의 다양한 측면을 탐구할 수 있을 것이다. 이러한 시도를 통해 아직 미지의 영역으로 여겨지는 인공지능 학습 과정의 일부를 보다 효과적으로 탐색하고 인공지능 모델의 발전과 적용에 기여할 수 있을 것으로 기대된다.

비선형 강성 모델을 위한 드레이프 시뮬레이션 결과 추정 (Drape Simulation Estimation for Non-Linear Stiffness Model)

  • 심응준;주은정;최명걸
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제29권3호
    • /
    • pp.117-125
    • /
    • 2023
  • 가상 시뮬레이션을 이용한 의류 디자인 개발에서는 가상과 실제의 차이가 최소화되어야 한다. 가상 의상과 실제 의상의 유사성을 높이는 데에 가장 기본이 되는 작업은 의상 제작에 사용될 옷감의 물성을 최대한 유사하게 표현할 수 있는 시뮬레이션 파라미터를 찾는 것이다. 시뮬레이션 파라미터 최적화 절차에는 전문가의 수작업으로 이루어지는 튜닝 과정이 포함되는데, 이 작업은 높은 전문성과 많은 시간이 요구된다. 특히 조정된 시뮬레이션 파라미터를 적용한 결과를 다시 확인하기 위해 시뮬레이션을 반복적으로 실행할 때 많은 시간이 소요된다. 최근 이 문제를 해결하기 위해 파라미터 튜닝에 주로 사용되는 드레이프 테스트 시뮬레이션 결과를 빠르게 추정하는 인공신경망 학습 모델이 제안되었다. 하지만 기존 연구에서는 비교적 간단한 선형 강성 모델을 사용하였으며 드레이프 시뮬레이션 전체를 추정하는 대신 일부만 추정하고 나머지는 보간하는 방식을 사용하였다. 실제 의류 디자인 개발 과정에서는 주로 비선형 강성 모델이 적용된 시뮬레이터가 사용되지만, 이에 대한 연구는 아직 부족하다. 본 논문에서는 비선형 강성 모델을 대상으로 드레이프 시뮬레이션 결과를 추정하기 위한 새로운 학습 모델을 제안한다. 본 연구에서 제안된 학습 모델은 시뮬레이션 결과인 고해상도 메시 모델 전체를 추정한다. 제시하는 방법의 성능을 검증하기 위해 세 가지 드레이프 테스트 방식을 대상으로 실험을 진행하여 추정 정확도를 평가한다.

Acetazolamide 사용전후 〔Tc-99m〕 EDC SPECT 데이타 분석 방법의 최적화 및 민감도 측정 (Computer Simulations of Hoffman Brain Phantom:Sensitivity Measurements and Optimization of Data Analysis of 〔Tc-99m〕ECD SPECT Before and After Acftazolamide Administraton)

  • Kim, Hee-Joung;Lee, Hee-Kyung
    • 한국의학물리학회지:의학물리
    • /
    • 제6권2호
    • /
    • pp.71-81
    • /
    • 1995
  • Acetazolamide (Diamox) 사용전후 〔Tc-99m〕ECD SPECT를 이용한 연속 뇌촬영은 뇌혈관의 혈역학 예비를 평가하기 위하여 사용되고 있다. 그러나 SPECT Diamox 영상의 정량적 평가 가능성은 검출기의 해상도, 감쇄, 산란, 노이즈, 그리고 데이타 분석 방법들에 의해 제한되고 있다. 알고 있는 양의 방사능을 채운 팬텀을 측정함으로써 민감도를 측정하거나 또는 분석할 수도 있다. 그러나 임상환경에서 환자를 시뮬레이션하는 현실성 있는 팬텀을 만드는 것은 매우 어렵다. Diamox 사용전후 ECD SPECT의 민감도가 컴퓨터 시뮬레이션에 의해 측정되었다. 민감도는 ($\Delta$N/N)/($\Delta$S/S)$\times$100%로 정의되고 $\Delta$N 은 측정된 데이타에서 Diamox 사용후와 사용전의 평균값 차이이고, $\Delta$N은 측정된 데이타에서 Diamox 사용전 평균값이고, $\Delta$S 는 모형에서 Diamox 사용후와 사용전의 평균값이고, S는 모형에서 Diamox 사용전 평균값이었다. Diamox를 이용한 임상연구에서는 Diamox 후에서 Diamox 전 데이타를 감산한 후 Diamox 에 의한 방사능 양의 변화를 측정함으로써 방사능의 변화율이 결정 될 수 있다. 그러나 100% 민감도를 위한 최적의 감산 양은 알려져 있지 않고 이것은 컴퓨터 시뮬레이션을 이용 철저한 민감도 분석을 요한다. Diamox 사용전후 연속 뇌 SPECT 영상 모형을 위하여 30% 증가된 방사능 양을 Diamox 영향으로 했을때 민감도는 0, 100, 150, 200% 감산에 대해 각각 51.03, 73.40, 94.00, 130.74%로 측정되었다. 민감도분석은 검출기의 해상도에 의한부분용적 효과와 통계적 노이즈는 방사능측정의 과소 평가가 된다는 것을 보였고 과소 평가 되는 양은 방사능 양이 몇 % 증가했는가 또는 Diamox 후 데이타에서 Diamox 전 데이타를 몇 % 감산 했는가에 의존된다는 것을 보였다. 임상에서 방사능 양의 변화가 약 30% 라 기대했을때 150%의 감산이 최적인 것으로 나타났다. 컴퓨터 시뮬레이션은 Diamox 전후의 ECD SPECT 민감도를 연구하는데 매우 중한 기술로 생각된다.

  • PDF