• 제목/요약/키워드: Model Repository

검색결과 301건 처리시간 0.021초

e-Learning 콘텐츠의 남북한 표준언어 지원시스템 연구 (A study on Support System for Standard Korean Language of e-Learning Contents)

  • 최성;정지문;유갑상
    • 디지털융복합연구
    • /
    • 제5권2호
    • /
    • pp.25-36
    • /
    • 2007
  • In this paper, we studied on the effective structure of an e-Learning Korean Support System for foreigner based on computer systems which is to obey the rules of IMS/AICC International Standard regulations based on LCMS and SCORM. The most important task on this study is to support the function of self-study module through the review of the analysis and results of Korean learning and learning customs. We studied the effective PMS detail modules as well as the Standard Competency Module Management System, which related to LMS/LCMS, Learning an Individual Competency Management System, Competency Registry/Repository System, Knowledge Management System based on Community Competency Module, Education e-survey System and Module learning Support Service System. We suggested one of standard Effective Model of learning Korean Support System which is adopted in a various techniques for foreigner.

  • PDF

인터넷 기반의 공동 작업을 위한 UML CASE 도구의 동작환경 구성방법 (Environment Configuration of UML CASE Tool for Internet based Collaboration Works)

  • 최환복;김윤호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.561-564
    • /
    • 2009
  • 본 논문에서는 공동 작업을 지원하는 CASE 도구를 위한 동작환경 구성방법을 제안하고자 한다. 분산된 위치에서 모델 공유를 위한 공유방법을 정의하고 공동 모델 저장소를 구성한다. 또한 시간 경과에 따른 작업 상황 비교를 위한 히스토리 기능 및 작성한 모델에 대해 책임을 부여하기 위해 사용자 인증을 통한 작업자 관리를 설계한다. 본 논문에서 제시하는 동작환경 구성방법은 분산된 위치에서 협업이 가능한 CASE 도구 개발에 기여할 것으로 기대된다.

  • PDF

드론 및 레이저스캐너를 활용한 근대 건축물 문화재 빌딩정보 모델 역설계 구축에 관한 연구 (Using Drone and Laser Scanners for As-built Building Information Model Creation of a Cultural Heritage Building)

  • 정래규;구본상;유영수
    • 한국BIM학회 논문집
    • /
    • 제9권2호
    • /
    • pp.11-20
    • /
    • 2019
  • The use of drones and laser scanners have the potential to drastically reduce the time and costs of conventional techniques employed for field survey of cultural heritage buildings. Moreover, point cloud data can be utilized to create an as-built Building Information Model (BIM), providing a repository for consistent operations information. However, BIM creation is not a requisite for heritage buildings, and their technological possibilities and barriers have not been documented. This research explored the processes required to convert a heritage university building to a BIM model, using existing off-the-shelf software applications. Point cloud data was gathered from drones for the exterior, while a laser scanner was employed for the interior of the building. The point clouds were preprocessed and used as references for the geometry of the building elements, including walls, slabs, windows, doors, and staircases. The BIM model was subsequently created for the individual elements using existing and custom libraries. The model was used to extract 2D CAD drawings that met the requirements of Korea's heritage preservation specifications. The experiment showed that technical improvements were needed to overcome issues of occlusion, modeling errors due to modeler's subjective judgements and point cloud data cleaning and filtering techniques.

Feature Selection and Hyper-Parameter Tuning for Optimizing Decision Tree Algorithm on Heart Disease Classification

  • Tsehay Admassu Assegie;Sushma S.J;Bhavya B.G;Padmashree S
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.150-154
    • /
    • 2024
  • In recent years, there are extensive researches on the applications of machine learning to the automation and decision support for medical experts during disease detection. However, the performance of machine learning still needs improvement so that machine learning model produces result that is more accurate and reliable for disease detection. Selecting the hyper-parameter that could produce the possible maximum classification accuracy on medical dataset is the most challenging task in developing decision support systems with machine learning algorithms for medical dataset classification. Moreover, selecting the features that best characterizes a disease is another challenge in developing machine-learning model with better classification accuracy. In this study, we have proposed an optimized decision tree model for heart disease classification by using heart disease dataset collected from kaggle data repository. The proposed model is evaluated and experimental test reveals that the performance of decision tree improves when an optimal number of features are used for training. Overall, the accuracy of the proposed decision tree model is 98.2% for heart disease classification.

소프트웨어 제품 계열 공학의 온톨로지 기반 휘처 공동성 및 가변성 분석 기법 (Ontology-based Approach to Analyzing Commonality and Variability of Features in the Software Product Line Engineering)

  • 이순복;김진우;송치양;김영갑;권주흠;이태웅;김현석;백두권
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권3호
    • /
    • pp.196-211
    • /
    • 2007
  • 제품 계열 공학에서 제품의 공통성 및 가변성 분석을 결정짓게 하는 기준인 휘처 (feature) 분석에 대한 기존 연구는 개발자의 직관이나 도메인 전문가의 경험에 근간으로 분석 기준이 객관적이지 못하며, 비정형적인 휘처 분석으로 인한 이해 당사자 (stakeholder)의 공통된 휘처의 이해 부족 및 불명확한 휘처를 추출하는 문제점이 있었고, 기 개발된 소프트웨어에서 사용된 휘처의 재사용 개념이 부족했었다. 본 논문에서는 특정 도메인의 휘처 모델을 온톨로지로 변환하여 의미 기반 유사성 분석 기준에 의해 휘처의 공통성과 가변성을 추출하는 기법을 제시한다. 이를 위해, 먼저 공통된 휘처 중심의 메타 휘처 모델 기반으로 휘처의 속성을 정립하고, 메타 모텔에 준거하여 휘처 모델을 생성하여 온톨로지로 변환 후, 휘처 온톨로지 리포지토리 (Repository)에 저장한다. 이후, 동일 제품 계열 도메인의 휘처 모델 구축 시, 기 존 생성 모델과 온톨로지의 의미 기반 유사성 비교 분석 기법을 통해 휘처의 공통성과 가변성을 추출하는 것이다 또한 유사성 비교 알고리즘을 툴로 구현하였으며, 전자 결재 시스템 도메인의 실험 및 평가를 통 해 효과성을 보인다. 본 기법을 통해 메타 휘처 모델의 구문적 정립으로 이해성과 정확성을 제고시켜 고품질의 휘처 모델을 구축할 수 있으며, 온톨로지의 의미 기반 매핑으로 휘처의 공통성 및 가변성 추출을 정형화할 수 있고, 재사용성을 향상시킬 수 있다.

EPCIS Event 데이터 크기의 정량적 모델링에 관한 연구 (A Study on Quantitative Modeling for EPCIS Event Data)

  • 이창호;조용철
    • 대한안전경영과학회지
    • /
    • 제11권4호
    • /
    • pp.221-228
    • /
    • 2009
  • Electronic Product Code Information Services(EPCIS) is an EPCglobal standard for sharing EPC related information between trading partners. EPCIS provides a new important capability to improve efficiency, security, and visibility in the global supply chain. EPCIS data are classified into two categories, master data (static data) and event data (dynamic data). Master data are static and constant for objects, for example, the name and code of product and the manufacturer, etc. Event data refer to things that happen dynamically with the passing of time, for example, the date of manufacture, the period and the route of circulation, the date of storage in warehouse, etc. There are four kinds of event data which are Object Event data, Aggregation Event data, Quantity Event data, and Transaction Event data. This thesis we propose an event-based data model for EPC Information Service repository in RFID based integrated logistics center. This data model can reduce the data volume and handle well all kinds of entity relationships. From the point of aspect of data quantity, we propose a formula model that can explain how many EPCIS events data are created per one business activity. Using this formula model, we can estimate the size of EPCIS events data of RFID based integrated logistics center for a one day under the assumed scenario.

ConvXGB: A new deep learning model for classification problems based on CNN and XGBoost

  • Thongsuwan, Setthanun;Jaiyen, Saichon;Padcharoen, Anantachai;Agarwal, Praveen
    • Nuclear Engineering and Technology
    • /
    • 제53권2호
    • /
    • pp.522-531
    • /
    • 2021
  • We describe a new deep learning model - Convolutional eXtreme Gradient Boosting (ConvXGB) for classification problems based on convolutional neural nets and Chen et al.'s XGBoost. As well as image data, ConvXGB also supports the general classification problems, with a data preprocessing module. ConvXGB consists of several stacked convolutional layers to learn the features of the input and is able to learn features automatically, followed by XGBoost in the last layer for predicting the class labels. The ConvXGB model is simplified by reducing the number of parameters under appropriate conditions, since it is not necessary re-adjust the weight values in a back propagation cycle. Experiments on several data sets from UCL Repository, including images and general data sets, showed that our model handled the classification problems, for all the tested data sets, slightly better than CNN and XGBoost alone and was sometimes significantly better.

Leveraging Deep Learning and Farmland Fertility Algorithm for Automated Rice Pest Detection and Classification Model

  • Hussain. A;Balaji Srikaanth. P
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.959-979
    • /
    • 2024
  • Rice pest identification is essential in modern agriculture for the health of rice crops. As global rice consumption rises, yields and quality must be maintained. Various methodologies were employed to identify pests, encompassing sensor-based technologies, deep learning, and remote sensing models. Visual inspection by professionals and farmers remains essential, but integrating technology such as satellites, IoT-based sensors, and drones enhances efficiency and accuracy. A computer vision system processes images to detect pests automatically. It gives real-time data for proactive and targeted pest management. With this motive in mind, this research provides a novel farmland fertility algorithm with a deep learning-based automated rice pest detection and classification (FFADL-ARPDC) technique. The FFADL-ARPDC approach classifies rice pests from rice plant images. Before processing, FFADL-ARPDC removes noise and enhances contrast using bilateral filtering (BF). Additionally, rice crop images are processed using the NASNetLarge deep learning architecture to extract image features. The FFA is used for hyperparameter tweaking to optimise the model performance of the NASNetLarge, which aids in enhancing classification performance. Using an Elman recurrent neural network (ERNN), the model accurately categorises 14 types of pests. The FFADL-ARPDC approach is thoroughly evaluated using a benchmark dataset available in the public repository. With an accuracy of 97.58, the FFADL-ARPDC model exceeds existing pest detection methods.

가압경수로(PWR)용 고준위폐기물 처분용기의 구조적 안전성 평가 보완 해석 (A Complementary Analysis for the Structural Safety Evaluation of the Spent Nuclear Fuel Disposal Canister for the Pressurized Water Reactor)

  • 최종원;권영주
    • 한국전산구조공학회논문집
    • /
    • 제20권4호
    • /
    • pp.427-433
    • /
    • 2007
  • 가압경수로(PWR)에서 배출되는 고준위폐기물을 지하 500m의 화강암 암반의 처분장에 장기간(약 10,000년 동안) 처분하기 위하여 여러 구조적 안전성 평가 수행을 통하여 처분용기모델이 개발되었다. 기존에 설계된 가압경수로용 처분용기 모델은 구조적 안전성은 문제가 없으나 너무 무거운 단점이 지적되었다. 따라서 구조적 안전성을 유지하면서 좀 더 경량화 된 처분용기모델을 개발하는 것이 요구된다. 기존의 처분용기모델이 무거워진 한가지 이유는 처분용기 개발 시 적용된 외력조건 및 안전계수 등에 대한 조건들을 너무 엄격하게 적용했기 때문이라고 사료되기 때문에 이런 조건들을 완화하여 처분용기의 재원들을 조정하여 구조해석을 다시 수행하는 것이 요구된다. 따라서 본 논문에서는 설계 완성된 기존의 처분용기에 대하여 외력 조건 및 용기의 재원(두께 등) 들을 변화시키면서 구조해석을 재 수행하여 구조적 안전성 평가를 보완하였다. 이를 바탕으로 외력 조건에 따른 처분용기의 재원 등을 재 산출한다. 보완 해석 결과 기존의 122cm의 처분용기의 직경을 102cm까지 줄여 경량화 시킬 수 있음이 확인되었다.

불포화 벤토나이트 완충재의 수분흡입력 측정기술 및 구성모델 고찰 (A Review on Measurement Techniques and Constitutive Models of Suction in Unsaturated Bentonite Buffer)

  • 이재완;윤석;김건영
    • 방사성폐기물학회지
    • /
    • 제17권3호
    • /
    • pp.329-338
    • /
    • 2019
  • 불포화 벤토나이트 완충재의 수분흡입력은 공학적방벽의 수리-역학적 성능평가 및 설계에 있어 매우 중요한 입력인자이다. 본 연구에서는 문헌에 보고된 불포화 다공성매질의 수분흡입력 측정기술과 구성모델을 분석하고, 고준위폐기물처분장의 벤토나이트 완충재에 적합한 수분흡입력 측정기술과 구성모델을 제안하였다. 문헌 분석결과, 벤토나이트 완충재의 수분흡입력은 일반토질보다 훨씬 높은 값을 가지며, 매트릭수분흡입력과 삼투흡입력을 포함하는 총수분흡입력을 측정하여 사용하였다. 벤토나이트 완충재의 수분흡입력 측정에는 상대습도센서를 이용한 측정방법(RH-Cell, RH-Cell/Sensor)이 적합하였으며, 핵종 붕괴열에 의한 온도변화와 측정 소요시간을 고려했을 때에는 RH-Cell/Sensor 방법이 더 선호되었다. 벤토나이트 완충재의 수분보유모델은 실험을 통해 여러 가지 모델이 제안되었지만, 불포화 완충재의 수리-역학적 성능평가 구성모델로는 대부분 van Genuchten모델이 사용되었다. 벤토나이트 완충재의 수분특성곡선은 벤토나이트의 종류, 건조밀도, 온도, 염도, 측정 시 시료상태와 이력과정에 따라 서로 다른 경향을 보였다. 수분보유모델의 선정 및 모델인자 결정에는 신뢰도 향상을 위해 이러한 인자들의 영향이 고려되어야 한다.