• 제목/요약/키워드: Design Optimization Tool

검색결과 534건 처리시간 0.024초

공작기계의 4차 산업혁명에서 특수한 형상 포켓 곡면가공을 위한 초정밀 소형 앵글 스핀들 개발에 관한 연구 (A Study on the Development of Ultra-precision Small Angle Spindle for Curved Processing of Special Shape Pocket in the Fourth Industrial Revolution of Machine Tools)

  • 이지웅
    • 실천공학교육논문지
    • /
    • 제15권1호
    • /
    • pp.119-126
    • /
    • 2023
  • 오늘날 자동차의 연비 향상 과 동적 거동 향상을 위해서 자동차 부품의 경량화 및 간소화 시대가 형성되고 있다. 설계와 제작의 간소화를 위해 제품 형상을 다양한 부품의 일체화로 진행되고 있다. 예를 들어 3개의 제품을 1개의 제품화 시키기 위해서 아주 협소한 부분까지 제품 가공하는 일이 발생되고 있다. 기존의 부품의 경우 가공의 편의성을 위해 정밀 다이캐스팅 또는 주물 생산으로 가공 후 조립하는데 다중 조립체(multi-piece) 방식은 공정수가 많이 필요로 하며, 부품의 정밀도와 강도를 저하시키는 요인이 된다. 가공 공정을 단순화 시키고 부품의 강도를 확보하기 위해서 일체형으로 제작하는 것이 단점을 극복하는데 매우 유리하지만 깊고 좁은 포켓 부분을 가공 할 경우 장비 자체 스핀들로는 가공이 불가능하다. 문제점을 해결하고자 절삭가공에 대한 연구가 활발하게 진행되고 있으며, 다축 복합가공 기술은 이러한 문제점을 해결할 뿐만 아니라, 지금까지 하나의 공작기계로 여러 공정에 따른 유연한 절삭가공이 어려웠던 복합 형상에도 절삭가공이 가능하다는 등 많은 장점을 가지고 있다. 하지만 고가의 장비로 인하여 제조경비 상승과 기계를 운영할 수 있는 기술자가 부족한 것이 현실이다. 5축 절삭 가공기에서는 깊고 협소한 구간의 제품을 생산할 때 공구의 간접으로 제품 생산에 사이클 타임이 늘어남은 물론 가공상에 문제점들이 많이 발생된다. 따라서 전용 공작기계 및 다축 복합가공기를 사용해야 한다. 그 대안으로 3축 머시닝센터에서 5축 이상의 다축 복합가공을 할 수 있는 특수 공구로서의 앵글 스핀들(angle spinde)이 사용될 수 있다. 앵글 스핀들 사용함으로 가공 진동 흡수, 낮은 열 발생과 작동 안정성, 우수한 치수 안정성, 강도 확보와 같은 분야에서 다양하고 지속적인 연구가 필요하다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

공공 서비스 수출 플랫폼을 위한 온톨로지 모형 (An Ontology Model for Public Service Export Platform)

  • 이광원;박세권;류승완;신동천
    • 지능정보연구
    • /
    • 제20권1호
    • /
    • pp.149-161
    • /
    • 2014
  • 공공 서비스의 수출의 경우 수출 절차와 대상 선정에 따른 다양한 문제가 발생하며, 공공 서비스 수출 플랫폼은 이러한 문제점들을 해결하기 위하여 사용자 중심의 유연하고, 개방형 구조의 디지털 생태계를 조성할 수 있도록 구현되어야 한다. 또한 공공서비스의 수출은 다수의 이해당사자가 참여하고 여러 단계의 과정을 거쳐야 하므로 사용자의 이해 종류와 탐색 컨설팅 협상 계약 등 수출 프로세스 단계별로 맞춤형 플랫폼 서비스 제공이 필수적이다. 이를 위해서 플랫폼 구조는 도메인과 정보의 정의 및 공유는 물론 지식화를 지원할 수 있어야 한다. 본 논문에서는 공공서비스 수출을 지원하는 플랫폼을 위한 온톨로지 모형을 제안한다. 서비스 플랫폼의 핵심 엔진은 시뮬레이터 모듈이며 시뮬레이터 모듈에서는 온톨로지를 사용하여 수출 비즈니스의 여러 컨텍스트들을 파악하고 정의하여 다른 모듈들과 공유하게 된다. 온톨로지는 공유 어휘를 통하여 개념들과 그들 간의 관계를 표현할 수 있으므로 특정 영역에서 구조적인 틀을 개발하기 위한 메타 정보를 구성하는 효과적인 도구로 잘 알려져 있다. 공공서비스 수출 플랫폼을 위한 온톨로지는 서비스, 요구사항, 환경, 기업, 국가 등 5가지 카테고리로 구성되며 각각의 온톨로지는 요구분석과 사례 분석을 통하여 용어를 추출하고 온톨로지의 식별과 개념적 특성을 반영하는 구조로 설계한다. 서비스 온톨로지는 목적효과, 요구조건, 활동, 서비스 분류 등으로 구성되며, 요구사항 온톨로지는 비즈니스, 기술, 제약으로 구성 된다. 환경 온톨로지는 사용자, 요구조건, 활동으로, 기업 온톨로지는 활동, 조직, 전략, 마케팅, 시간으로 구성되며, 국가 온톨로지는 경제, 사회기반시설, 법, 제도, 관습, 인프라, 인구, 위치, 국가전략 등으로 구성된다. 수출 대상 서비스와 국가의 우선순위 리스트가 생성되면 갭(gap) 분석과 매칭 알고리즘 등의 시뮬레이터를 통하여 수출기업과 수출지원 프로그램과의 시스템적 연계가 이루어진다. 제안하는 온톨로지 모형 기반의 공공서비스 수출지원 플랫폼이 구현되면 이해당사자 모두에게 도움이 되며 특히 정보 인프라와 수출경험이 부족한 중소기업에게 상대적으로 더 큰 도움이 될 것이다. 또한 개방형 디지털 생태계를 통하여 이해당사자들이 정보교환, 협업, 신사업 기획 등의 기회를 만들 수 있을 것으로 기대한다.

빅데이터 도입의도에 미치는 영향요인에 관한 연구: 전략적 가치인식과 TOE(Technology Organizational Environment) Framework을 중심으로 (An Empirical Study on the Influencing Factors for Big Data Intented Adoption: Focusing on the Strategic Value Recognition and TOE Framework)

  • 가회광;김진수
    • Asia pacific journal of information systems
    • /
    • 제24권4호
    • /
    • pp.443-472
    • /
    • 2014
  • To survive in the global competitive environment, enterprise should be able to solve various problems and find the optimal solution effectively. The big-data is being perceived as a tool for solving enterprise problems effectively and improve competitiveness with its' various problem solving and advanced predictive capabilities. Due to its remarkable performance, the implementation of big data systems has been increased through many enterprises around the world. Currently the big-data is called the 'crude oil' of the 21st century and is expected to provide competitive superiority. The reason why the big data is in the limelight is because while the conventional IT technology has been falling behind much in its possibility level, the big data has gone beyond the technological possibility and has the advantage of being utilized to create new values such as business optimization and new business creation through analysis of big data. Since the big data has been introduced too hastily without considering the strategic value deduction and achievement obtained through the big data, however, there are difficulties in the strategic value deduction and data utilization that can be gained through big data. According to the survey result of 1,800 IT professionals from 18 countries world wide, the percentage of the corporation where the big data is being utilized well was only 28%, and many of them responded that they are having difficulties in strategic value deduction and operation through big data. The strategic value should be deducted and environment phases like corporate internal and external related regulations and systems should be considered in order to introduce big data, but these factors were not well being reflected. The cause of the failure turned out to be that the big data was introduced by way of the IT trend and surrounding environment, but it was introduced hastily in the situation where the introduction condition was not well arranged. The strategic value which can be obtained through big data should be clearly comprehended and systematic environment analysis is very important about applicability in order to introduce successful big data, but since the corporations are considering only partial achievements and technological phases that can be obtained through big data, the successful introduction is not being made. Previous study shows that most of big data researches are focused on big data concept, cases, and practical suggestions without empirical study. The purpose of this study is provide the theoretically and practically useful implementation framework and strategies of big data systems with conducting comprehensive literature review, finding influencing factors for successful big data systems implementation, and analysing empirical models. To do this, the elements which can affect the introduction intention of big data were deducted by reviewing the information system's successful factors, strategic value perception factors, considering factors for the information system introduction environment and big data related literature in order to comprehend the effect factors when the corporations introduce big data and structured questionnaire was developed. After that, the questionnaire and the statistical analysis were performed with the people in charge of the big data inside the corporations as objects. According to the statistical analysis, it was shown that the strategic value perception factor and the inside-industry environmental factors affected positively the introduction intention of big data. The theoretical, practical and political implications deducted from the study result is as follows. The frist theoretical implication is that this study has proposed theoretically effect factors which affect the introduction intention of big data by reviewing the strategic value perception and environmental factors and big data related precedent studies and proposed the variables and measurement items which were analyzed empirically and verified. This study has meaning in that it has measured the influence of each variable on the introduction intention by verifying the relationship between the independent variables and the dependent variables through structural equation model. Second, this study has defined the independent variable(strategic value perception, environment), dependent variable(introduction intention) and regulatory variable(type of business and corporate size) about big data introduction intention and has arranged theoretical base in studying big data related field empirically afterwards by developing measurement items which has obtained credibility and validity. Third, by verifying the strategic value perception factors and the significance about environmental factors proposed in the conventional precedent studies, this study will be able to give aid to the afterwards empirical study about effect factors on big data introduction. The operational implications are as follows. First, this study has arranged the empirical study base about big data field by investigating the cause and effect relationship about the influence of the strategic value perception factor and environmental factor on the introduction intention and proposing the measurement items which has obtained the justice, credibility and validity etc. Second, this study has proposed the study result that the strategic value perception factor affects positively the big data introduction intention and it has meaning in that the importance of the strategic value perception has been presented. Third, the study has proposed that the corporation which introduces big data should consider the big data introduction through precise analysis about industry's internal environment. Fourth, this study has proposed the point that the size and type of business of the corresponding corporation should be considered in introducing the big data by presenting the difference of the effect factors of big data introduction depending on the size and type of business of the corporation. The political implications are as follows. First, variety of utilization of big data is needed. The strategic value that big data has can be accessed in various ways in the product, service field, productivity field, decision making field etc and can be utilized in all the business fields based on that, but the parts that main domestic corporations are considering are limited to some parts of the products and service fields. Accordingly, in introducing big data, reviewing the phase about utilization in detail and design the big data system in a form which can maximize the utilization rate will be necessary. Second, the study is proposing the burden of the cost of the system introduction, difficulty in utilization in the system and lack of credibility in the supply corporations etc in the big data introduction phase by corporations. Since the world IT corporations are predominating the big data market, the big data introduction of domestic corporations can not but to be dependent on the foreign corporations. When considering that fact, that our country does not have global IT corporations even though it is world powerful IT country, the big data can be thought to be the chance to rear world level corporations. Accordingly, the government shall need to rear star corporations through active political support. Third, the corporations' internal and external professional manpower for the big data introduction and operation lacks. Big data is a system where how valuable data can be deducted utilizing data is more important than the system construction itself. For this, talent who are equipped with academic knowledge and experience in various fields like IT, statistics, strategy and management etc and manpower training should be implemented through systematic education for these talents. This study has arranged theoretical base for empirical studies about big data related fields by comprehending the main variables which affect the big data introduction intention and verifying them and is expected to be able to propose useful guidelines for the corporations and policy developers who are considering big data implementationby analyzing empirically that theoretical base.