• 제목/요약/키워드: Optimization.

검색결과 21,659건 처리시간 0.048초

사용자 리뷰를 통한 소셜커머스와 오픈마켓의 이용경험 비교분석 (A Comparative Analysis of Social Commerce and Open Market Using User Reviews in Korean Mobile Commerce)

  • 채승훈;임재익;강주영
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.53-77
    • /
    • 2015
  • 국내 모바일 커머스 시장은 현재 소셜커머스가 이용자 수 측면에서 오픈마켓을 압도하고 있는 상황이다. 산업계에서는 모바일 시장에서 소셜커머스의 성장에 대해 빠른 모바일 시장진입, 큐레이션 모델 등을 주요 성공요인으로 제시하고 있지만, 이에 대한 학계의 실증적인 연구 및 분석은 아직 미미한 상황이다. 본 연구에서는 사용자 리뷰를 바탕으로 모바일 소셜커머스와 오픈마켓의 사용자 이용경험을 비교 분석하는 탐험적인 연구를 수행하였다. 먼저 본 연구는 구글 플레이에 등록된 국내 소셜커머스 주요 3개 업체와 오픈마켓 주요 3개 업체의 모바일 앱 리뷰를 수집하였다. 본 연구는 LDA 토픽모델링을 통해 1만여건에 달하는 모바일 소셜커머스와 오픈마켓 사용자 리뷰를 지각된 유용성과 지각된 편리성 토픽으로 분류한 뒤 감정분석과 동시출현단어분석을 수행하였다. 이를 통해 본 연구는 국내 모바일 커머스 상에서 오픈마켓 이용자들에 비해 소셜커머스 이용자들이 서비스와 이용편리성 측면에서 더 긍정적인 경험을 하고 있음을 증명하였다. 소셜커머스는 '배송', '쿠폰', '할인'을 중심으로 서비스 측면에서 이용자들에게 긍정적인 이용경험을 이끌어내고 있는 반면, 오픈마켓의 경우 '로그인 안됨', '상세보기 불편', '멈춤'과 같은 기술적 문제 및 불편으로 인한 이용자 불만이 높았다. 이와 같이 본 연구는 사용자 리뷰를 통해 서비스 이용경험을 효과적으로 비교 분석할 수 있는 탐험적인 실증연구법을 제시하였다. 구체적으로 본 연구는 LDA 토픽모델링과 기술수용모형을 통해 사용자 리뷰를 서비스와 기술 토픽으로 분류하여 효과적으로 분석할 수 있는 새로운 방법을 제시하였다는 점에서 의의가 있다. 또한 본 연구의 결과는 향후 소셜커머스와 오픈마켓의 경쟁 및 벤치마킹 전략에 중요하게 활용될 수 있을 것으로 기대된다.

Word2Vec을 활용한 제품군별 시장규모 추정 방법에 관한 연구 (A Study on Market Size Estimation Method by Product Group Using Word2Vec Algorithm)

  • 정예림;김지희;유형선
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.1-21
    • /
    • 2020
  • 인공지능 기술의 급속한 발전과 함께 빅데이터의 상당 부분을 차지하는 비정형 텍스트 데이터로부터 의미있는 정보를 추출하기 위한 다양한 연구들이 활발히 진행되고 있다. 비즈니스 인텔리전스 분야에서도 새로운 시장기회를 발굴하거나 기술사업화 주체의 합리적 의사결정을 돕기 위한 많은 연구들이 이뤄져 왔다. 본 연구에서는 기업의 성공적인 사업 추진을 위해 핵심적인 정보 중의 하나인 시장규모 정보를 도출함에 있어 기존에 제공되던 범위보다 세부적인 수준의 제품군별 시장규모 추정이 가능하고 자동화된 방법론을 제안하고자 한다. 이를 위해 신경망 기반의 시멘틱 단어 임베딩 모델인 Word2Vec 알고리즘을 적용하여 개별 기업의 생산제품에 대한 텍스트 데이터를 벡터 공간으로 임베딩하고, 제품명 간 코사인 거리(유사도)를 계산함으로써 특정한 제품명과 유사한 제품들을 추출한 뒤, 이들의 매출액 정보를 연산하여 자동으로 해당 제품군의 시장규모를 산출하는 알고리즘을 구현하였다. 실험 데이터로서 통계청의 경제총조사 마이크로데이터(약 34만 5천 건)를 이용하여 제품명 텍스트 데이터를 벡터화 하고, 한국표준산업분류 해설서의 산업분류 색인어를 기준으로 활용하여 코사인 거리 기반으로 유사한 제품명을 추출하였다. 이후 개별 기업의 제품 데이터에 연결된 매출액 정보를 기초로 추출된 제품들의 매출액을 합산함으로써 11,654개의 상세한 제품군별 시장규모를 추정하였다. 성능 검증을 위해 실제 집계된 통계청의 품목별 시장규모 수치와 비교한 결과 피어슨 상관계수가 0.513 수준으로 나타났다. 본 연구에서 제시한 모형은 의미 기반 임베딩 모델의 정확성 향상 및 제품군 추출 방식의 개선이 필요하나, 표본조사 또는 다수의 가정을 기반으로 하는 전통적인 시장규모 추정 방법의 한계를 뛰어넘어 텍스트 마이닝 및 기계학습 기법을 최초로 적용하여 시장규모 추정 방식을 지능화하였다는 점, 시장규모 산출범위를 사용 목적에 따라 쉽고 빠르게 조절할 수 있다는 점, 이를 통해 다양한 분야에서 수요가 높은 세부적인 제품군별 시장정보 도출이 가능하여 실무적인 활용성이 높다는 점에서 의의가 있다.

후두암의 방사선치료 Patterns of Care Study를 위한 프로그램 항목 개발: 예비 결과 (Investigation of Study Items for the Patterns of Care Study in the Radiotherapy of Laryngeal Cancer: Preliminary Results)

  • 정웅기;김일한;안성자;남택근;오윤경;송주영;나병식;정경애;권형철;김정수;김수곤;강정구
    • Radiation Oncology Journal
    • /
    • 제21권4호
    • /
    • pp.299-305
    • /
    • 2003
  • 목적: 후두암 방사선치료의 표준화를 위하여 후두암에 관한 기본적인 임상 자료를 축적하고 필요한 조사 항목을 결정하여 전국적인 웹 기반 데이터 베이스 시스템을 개발하고자 하였다. 대상 및 방법: 1998년 1월부터 1999년 12월까지 호서호남 지역에서 후두암으로 진단되어 방사선치료를 받은 환자를 대상으로 임상적 분석을 시행하였다. 환자 선정 기준은 18세 이상이며 과거력상 타 장기의 암 진단 병력이 없고 후두에서 기원한 원발성 상피세포암으로 과거 후두에 대한 다른 질환으로 치료력이 없는 환자를 대상으로 하였다. 후두암에 관한 조사 항목 개발은 대한방사선종양학회 호서호남지회 소속 병원의 전문의들이 합의하여 일차적으로 선정한 항목에 대하여 각 병원에서 자체적으로 조사하였다. 통계처리는 SPSS v10.0을 이용하였다. 결과: 자료가 수집된 총 증례수는 45예이었다. 환자의 연령분포는 28$\~$88세(중앙값: 61)이었고 남녀비는 10 대 1로 대부분 남자에 발생하였다. 원발부위는 성문암이 28예(62$\%$), 성문상부암이 17예(38$\%$)이었다. 병리소견으로는 편평세포암이 대부분이었다(44/45, 98$\%$). AJCC (1997년도) 병기 I+II는, 성문암 28예 중 24예(86$\%$)에 비해 성문상부암의 경우는 16예 중 8예(50$\%$)이었다(p=0.002). 증상은 애성이 n예(89%$\%$로 가장 많았다. 진단은 간접후두경이 전체환자에서, 직접후두경검사는 43예(98$\%$)에서 각각 시행되었다. 치료로서 성문암 28예와 성문상부암 17예 중, 방사선 단독치료는 21예(75$\%$), 6예(35$\%$)에서 각각 시행되었다. 또한 수술요법과 방사선요법의 병용은 각각 5예(18$\%$), 8예(47$\%$)이었고, 항암화학요법과 방사선요법의 병용치료는 각각 2예(7$\%$), 3예(18$\%$)이었으나 두 원발 병소 간에 병용치료 빈도의 유의한 차이는 없었다(p=0.20). 방사선치료는 모두 선형가속기 6 MV X-ray를 이용하여 통상적 분할조사 법으로 시행되었다. 분할선량은 성문암 환자의 86$\%$에서 2.0 Gy를 사용한 반면 성문상부암은 59$\%$에서 1.8 Gy를 각각 사용하였다. 방사선단독치료를 완료한 환자에서 원발병소의 평균 총방사선량은 성문암에서 65.98 Gy, 성문상부암에서 70.15 Gy이었다. 수집된 자료를 기초로 후두암 방사선치료형태 연구에 필요한 총 12개의 모듈과 90개의 항목을 개 발하였다. 결론: 본 연구에서는 후두암 데이터베이스 시스템에 필요한 연구 항목을 개발하였다. 향후 웹 기반 데이터 베이스 시스템을 완성하고 전국의 방사선치료 자료를 축적하여 후두암에 대한 한국형 방사선치료의 표준화 및 적정화를 기하고자 한다.

일 지역 종합병원 영상의학과 MDCT선량에 대한 연구 (The study of MDCT of Radiation dose in the department of Radiology of general hospitals in the local area)

  • 신정섭
    • 한국방사선학회논문지
    • /
    • 제6권4호
    • /
    • pp.281-290
    • /
    • 2012
  • 경상북도에 소재한 3개 종합병원 영상의학과의 MDCT 검사 중 두부, 복부, 흉부 각 10건씩 30건을 대상으로 CTDIl, DLP, Slice 수, DLP/Slice 수를 조사하여 병원 간 프로토콜의 차이로 인한 MDCT의 피폭선량의 차이를 분석하였고, CT검사의 가장 많은 검사건수를 차지하고 프로토콜이 비교적 단순한 두부 CT를 Helical Scan과 Normal Scan으로 2회 실시하여 영상의 화질, CTDI, DLP, 안구의 피폭선량, 갑상선의 피폭선량의 차이를 분석하였다. 두부CT에서 조사대상 병원의 3분의 2에서 CTDI 참조준위(IAEA 50mGy, 우리나라 60mGy)를 초과하지 않은 A병원에 비하여 유의하게 높았다(p<0.001). DLP에서 조사병원의 3분의 1은 참조준위 IAEA 1,050mGy.cm, 우리나라 1,000mGy.cm의 권고량 보다 높았고, 3분의 2가 우리나라의 권고량을 초과하고 있었다. 참조준위를 초과하지 않은 A병원에 비하여 유의하게 높았다(p<0.001). Abdomen CT에서도 3분의 1은 CTDI 참조준위 IAEA 25mGy, 우리나라 20mGy보다 높은 119mGy를 보였고, DLP에서는 모든 조사대상 병원이 우리나라 권고량 700mGy.cm보다 높았다. 조사대상 병원 중 모든 검사에서 높은 선량을 보인 C병원은 MPR, 3D 검사의 비중이 높아 낮은 pitch, 높은 관전류 검사로 인한 피폭선량이 높았다. Scan 방법에 따른 피폭선량의 차이를 분석하고자 동일환자의 두부CT를 Normal scan과 Helical scan으로 각각 실시하여 분석한 결과 CTDI 및 DLP에서 Helical CT가 Normal scan에 비해 63.4%, 93.7% 높은 선량을 보였다(p<0.05, p<0.01). 그러나 갑상선의 피폭선량은 Normal scan이 87.26% 높았다(p<0.01). Helical CT의 선속은 종심부와 변연부의 모양이 종의 형태를 취하고 있어 두부CT에서 갑상선은 중심선속에서 벗어난 적은 선량으로 피폭된다. 또한 Helical scan시 Gantry 각을 수직으로 사용하였고, Normal scan시에는 Orbitomeatal line에 평행으로 정렬된 Gantry 각을 사용하여 Helical scan에서 갑상선은 피폭선량이 감소하였다. 그러나 본 연구에서 사용된 프로토콜은 식약청의 표준준위에 비해 높은 피폭선량을 보여 식약청의 권고량을 지키기 위해서는 낮은 관전류 높은 Pitch의 사용이 요구되었다. 이번 연구에서 Normal scan과 Helical scan에 따른 화질의 차이는 없는 것으로 분석되어 특별한 경우가 아니면 Normal scan의 표준화된 프로토콜을 사용하고 갑상선의 보호장구를 사용하는 것이 필요하였다. 이번 연구는 일지역의 CT검사 중 일부를 조사하여 분석하였으므로 CT검사의 전체를 평가하는데 무리가 있었다. 그러나 경우에 따라 환자피폭선량의 가이드 권고량을 초과하고 있음을 알 수 있었고, 병원 간의 피폭선량 편차도 있음을 확인 할 수 있었다. 이것을 개선하기 위하여 영상의학과 의사 및 방사선사는 CT 방사선량을 줄이는 최적화된 프로토콜로 CT검사를 시행해야 하고, 환자의 알권리를 위하여 피폭선량은 공개되어야 한다. 그러나 아직 많은 의사들과 방사선사는 이에 대한 인식이 부족하므로 개선을 위하여 CT선량 저감화의 교육프로그램, CT검사에 따른 피폭선량의 공개, 병원의 서비스평가 및 병원인증제 평가항목에 CT검사 피폭선량관리 및 공개항목을 추가 등의 관련기관의 노력과 의료종사자가 CT검사에서 행위의 최적화를 실현하는 최선의 프로토콜을 사용하는 노력이 필요하였다.

입력변수 및 학습사례 선정을 동시에 최적화하는 GA-MSVM 기반 주가지수 추세 예측 모형에 관한 연구 (A Study on the Prediction Model of Stock Price Index Trend based on GA-MSVM that Simultaneously Optimizes Feature and Instance Selection)

  • 이종식;안현철
    • 지능정보연구
    • /
    • 제23권4호
    • /
    • pp.147-168
    • /
    • 2017
  • 오래 전부터 학계에서는 정확한 주식 시장의 예측에 대한 많은 연구가 진행되어 왔고 현재에도 다양한 기법을 응용한 예측모형들이 연구되고 있다. 특히 최근에는 딥러닝(Deep-Learning)을 포함한 다양한 기계학습기법(Machine Learning Methods)을 이용해 주가지수를 예측하려는 많은 시도들이 진행되고 있다. 전통적인 주식투자거래의 분석기법으로는 기본적 분석과 기술적 분석방법이 사용되지만 보다 단기적인 거래예측이나 통계학적, 수리적 기법을 응용하기에는 기술적 분석 방법이 보다 유용한 측면이 있다. 이러한 기술적 지표들을 이용하여 진행된 대부분의 연구는 미래시장의 (보통은 다음 거래일) 주가 등락을 이진분류-상승 또는 하락-하여 주가를 예측하는 모형을 연구한 것이다. 하지만 이러한 이진분류로는 추세를 예측하여 매매시그널을 파악하거나, 포트폴리오 리밸런싱(Portfolio Rebalancing)의 신호로 삼기에는 적합치 않은 측면이 많은 것 또한 사실이다. 이에 본 연구에서는 기존의 주가지수 예측방법인 이진 분류 (binary classification) 방법에서 주가지수 추세를 (상승추세, 박스권, 하락추세) 다분류 (multiple classification) 체계로 확장하여 주가지수 추세를 예측하고자 한다. 이러한 다 분류 문제 해결을 위해 기존에 사용하던 통계적 방법인 다항로지스틱 회귀분석(Multinomial Logistic Regression Analysis, MLOGIT)이나 다중판별분석(Multiple Discriminant Analysis, MDA) 또는 인공신경망(Artificial Neural Networks, ANN)과 같은 기법보다는 예측성과의 우수성이 입증된 다분류 Support Vector Machines(Multiclass SVM, MSVM)을 사용하고, 이 모델의 성능을 향상시키기 위한 래퍼(wrapper)로서 유전자 알고리즘(Genetic Algorithm)을 이용한 최적화 모델을 제안한다. 특히 GA-MSVM으로 명명된 본 연구의 제안 모형에서는 MSVM의 커널함수 매개변수, 그리고 최적의 입력변수 선택(feature selection) 뿐만이 아니라 학습사례 선택(instance selection)까지 최적화하여 모델의 성능을 극대화 하도록 설계하였다. 제안 모형의 성능을 검증하기 위해 국내주식시장의 실제 데이터를 적용해본 결과 ANN이나 CBR, MLOGIT, MDA와 같은 기존 데이터마이닝 기법들이나 인공지능 알고리즘은 물론 현재까지 가장 우수한 예측 성과를 나타내는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안 모형이 보다 우수한 예측성과를 보임을 확인할 수 있었다. 특히 주가지수 추세 예측에 있어서 학습사례의 선택이 매우 중요한 역할을 하는 것으로 확인 되었으며, 모델의 성능의 개선효과에 다른 요인보다 중요한 요소임을 확인할 수 있었다.

보상여과판을 이용한 비인강암의 전방위 강도변조 방사선치료계획 (Dose Planning of Forward Intensity Modulated Radiation Therapy for Nasopharyngeal Cancer using Compensating Filters)

  • 추성실;이상욱;서창옥;김귀언
    • Radiation Oncology Journal
    • /
    • 제19권1호
    • /
    • pp.53-65
    • /
    • 2001
  • 목적 : 비인강암 환자의 국소제어율을 향상시키기 위한 목적으로 보상 여과판을 이용한 전방위 강도변조 방사선치료방법(intensity modulated radiation therapy : IMRT)을 계획하고 기존 3차원 입체조형치료방법과 비교하여 최적의 방사선치료방법을 모색하고자 한다. 대상 및 방법 : 3-차원 입체조형치료계획으로 치료받았던 비강암환자(T4N0M0) 1예를 선택하여 치료면의 굴곡과 뼈, 공동 등 불균질 조직으로 인하여 발생되는 표적체적의 선량분포를 균일하게 만들고 주변 정상장기의 손상을 최소화하기 위한 일차 입사선량의 강도 조절을 보상여과판으로 시행 하였다. 환자는 열변성 plastic mask로 고정시킨 후 치료조준용 CT Scan (PQ5000)을 이용하여 3 mm 간격으로 scan 하고 가상조준장치(virtual simulator)와 3차원 방사선치료계획 컴퓨터$(ADAC-Pinnacle^3)$를 이용하여 보상여과판을 제작하였다. 각 조사면을 세분한 소조사선(beamlet)의 강도 가중치(weighting)를 계산하고 가중치에 따른 선량 감약을 보상여과판의 두께로 환산하여 판별이 쉽도록 도표화하였다. 방사선 치료성과의 기준은 정량적으로 평가할 수 있는 선량체적표(dose volume histogram : DVH)와 종양억제확율(tumor control probability : TCP)및 정상조직 손상확율(normal tissue complication probability : NTCP)의 수학적 관계식을 이용하여 치료효과를 평가하였다. 결과 : 전방위 IMRT에서 계획용표적체적(planning target volume: PTV)내의 최소선량과 최대선량의 차이가 입체조형치료계획보다 약간 증가하였으며 평균선량은 강도조절치료계획에서 약 $10\%$, 더 높았고 전체 방사선량의 $95\%$가 포함되는 체적(V95)은 비교적 양쪽 설계방법에서 비슷한 양상을 보이고 있었다. 주위 건강장기들의 DVH에서 방사선에 민감한 장기인 시신경, 측두엽, 이하선, 뇌간, 척수, 측두하악골관절 등은 강도조절치료계획에서 많이 보호되었다. PTV의 종양제어확율은 입체조형치료계획과 강도변조치료계획에서 모두 비교적 균일하였으며 계획선량이 50 Gy에서 80 Gy로 증가함에 따라 TCP가 0.45에서 0.56으로 완만하게 증가하였다. 척수, 측두하악골 관절, 뇌간, 측두엽, 이하선, 시신경교차, 시신경 등 정상장기의 손상확율은 입체조형치료계획보다 강도조절치료계획에서 월등히 감소되었으며 특히 뇌간(brain stem)의 NTCP는 입체조형치료계획에서 보다 강도조절치료계획에서 훨씬 적은 값(0.3에서 0.15)으로 감소되었다. 계획선량의 증가에 따른 TCP와 NTCP를 입체조형치료계획과 강도조절치료계획에서 TCP는 공히 완만한 증가를 보였으나 NTCP값은 선량증가에 비례적으로 증가하였고 입체조형치료계획이 강도조절치료계획보다 월등히 증가하였다. 결론 : 보상여과판을 이용한 전방위 강도변조 방사선치료에서 PTV내의 선량 균일도의 개선은 없었지만 뇌간, 척수강 등 정상장기의 피폭을 줄일 수 있었다. 특히 인체표면의 굴곡이 심하거나 뼈, 동공 등으로 종양에 도달하는 방사선량분포가 균일하지 않을 경우 매우 유리한 치료방법이였다. 방사선치료성적을 평가함에 있어 DVH와 TCP, NTCP 등 수학적 척도를 이용함으로서 치료성과의 예측, 종양선량의 증가(dose escalation), 방사선수술의 지표 및 방사선치료의 질적 상황을 정량적 수치로 평가할 수 있어 방사선치료성과 향상에 기여할 수 있다고 생각한다.

  • PDF

근접방사선치료용 다목적 팬톰을 이용한 직장 내 선량분석 (The Analysis of Dose in a Rectum by Multipurpose Brachytherapy Phantom)

  • 허현도;김성훈;조삼주;이석;신동오;권수일;김헌정;김우철;노준규
    • Radiation Oncology Journal
    • /
    • 제23권4호
    • /
    • pp.223-229
    • /
    • 2005
  • 목적: 근접방사선 치료시 직장내 선량측정은 치료간(Inter-fraction) 직장의 형태가 변화하므로 측정의 재현성을 이룰 수 없다. 본 연구에서는 근접방사선치료용 다목적 팬톰(Multi Purpose Brachytherapy Phantom, MPBP)을 제작하여 치료 시와 동일한 조건을 재현하였고 이때 측정한 선량 값을 직장의 부작용을 줄이기 위해 선량최적화에 적용하고자 하였다. 대상 및 방법: 자궁경부암 근접방사선 치료 시 탄뎀(tandem)과 난형체(ovoid)를 사용한 환자 4명을 대상으로 다이오드 검출기를 이용하여 직장표시 기준점 R1에서 선량측정을 시행하였다. 환자 당 5회씩 총 20회 직장선량을 측정하였다. 그리고 반복 측정 시 다이오드 검출기의 설정 변화(set up variation)를 분석하였다. 그리고 자체 제작된 근접방사선치료용 다목적 팬톰에서 MFA (Multi Function Applicator)를 이용하여 치료 시와 동일한 조건을 재현한 후 열형광선량계(TLD)를 이용하여 직장 표시 기준점 좌표 위치에서 선량을 측정하였다. 결과: 직장 내 다이오드 검출기의 측정 결과 설정 변화는 환자 1의 경우에 Y방향에서 최고 $11.25{\pm}0.95mm$보였고, 환자 2와 3은 Z 방향에서 각각 $9.90{\pm}4.50mm$$20.85{\pm}4.50mm$를 나타냈다. 그리고 환자 4는 Z 방향에서 $19.15{\pm}3.33mm$의 변화를 나타내었다. 또한 다이오드 검출기 위치에 따른 평균선량 값은 $122.82{\pm}7.96cGy{\sim}323.78{\pm}11.16cGy$로 나타났다. MPBP에서 TLD의 측정 결과는 직장 표시 기준점(R1)에서 환자1과 4는 상대오차가 각각 최고 8.6%와 7.7%를 보였고, 환자2와 3은 각각 1.7%와 1.2%의 오차를 보였다. 그리고 R과 R2에서 측정한 선량 값들은 환자 2의 R 지점을 제외하고 계산값과 비교하여 $1.7{\sim}8.6%$ 높은 값을 나타냈다. 그리고 반복측정으로 인한 위치변화와 그에 따른 선량 값의 변화는 분석하지 않았다. 계산 값과 측정값의 상대오차가 미국의학물리학회 보고서에서 권고한 15% 내에서 잘 일치하는 것으로 분석되었다. 결론: 자체 제작된 근접치료용 다목적 팬톰(MPBP)은 치료 시와 동일한 조건에서 선량측정의 재현성을 이룰 수 있었고, 직장의 기준점에서 선량을 정확히 분석할 수 있었다. 또한 팬톰에서 측정한 데이터를 이용하여 직장의 부작용을 줄이기 위해 치료 전 선량 최적화를 이루는데 충분한 자료로 활용할 수 있다고 판단되었다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

공공 서비스 수출 플랫폼을 위한 온톨로지 모형 (An Ontology Model for Public Service Export Platform)

  • 이광원;박세권;류승완;신동천
    • 지능정보연구
    • /
    • 제20권1호
    • /
    • pp.149-161
    • /
    • 2014
  • 공공 서비스의 수출의 경우 수출 절차와 대상 선정에 따른 다양한 문제가 발생하며, 공공 서비스 수출 플랫폼은 이러한 문제점들을 해결하기 위하여 사용자 중심의 유연하고, 개방형 구조의 디지털 생태계를 조성할 수 있도록 구현되어야 한다. 또한 공공서비스의 수출은 다수의 이해당사자가 참여하고 여러 단계의 과정을 거쳐야 하므로 사용자의 이해 종류와 탐색 컨설팅 협상 계약 등 수출 프로세스 단계별로 맞춤형 플랫폼 서비스 제공이 필수적이다. 이를 위해서 플랫폼 구조는 도메인과 정보의 정의 및 공유는 물론 지식화를 지원할 수 있어야 한다. 본 논문에서는 공공서비스 수출을 지원하는 플랫폼을 위한 온톨로지 모형을 제안한다. 서비스 플랫폼의 핵심 엔진은 시뮬레이터 모듈이며 시뮬레이터 모듈에서는 온톨로지를 사용하여 수출 비즈니스의 여러 컨텍스트들을 파악하고 정의하여 다른 모듈들과 공유하게 된다. 온톨로지는 공유 어휘를 통하여 개념들과 그들 간의 관계를 표현할 수 있으므로 특정 영역에서 구조적인 틀을 개발하기 위한 메타 정보를 구성하는 효과적인 도구로 잘 알려져 있다. 공공서비스 수출 플랫폼을 위한 온톨로지는 서비스, 요구사항, 환경, 기업, 국가 등 5가지 카테고리로 구성되며 각각의 온톨로지는 요구분석과 사례 분석을 통하여 용어를 추출하고 온톨로지의 식별과 개념적 특성을 반영하는 구조로 설계한다. 서비스 온톨로지는 목적효과, 요구조건, 활동, 서비스 분류 등으로 구성되며, 요구사항 온톨로지는 비즈니스, 기술, 제약으로 구성 된다. 환경 온톨로지는 사용자, 요구조건, 활동으로, 기업 온톨로지는 활동, 조직, 전략, 마케팅, 시간으로 구성되며, 국가 온톨로지는 경제, 사회기반시설, 법, 제도, 관습, 인프라, 인구, 위치, 국가전략 등으로 구성된다. 수출 대상 서비스와 국가의 우선순위 리스트가 생성되면 갭(gap) 분석과 매칭 알고리즘 등의 시뮬레이터를 통하여 수출기업과 수출지원 프로그램과의 시스템적 연계가 이루어진다. 제안하는 온톨로지 모형 기반의 공공서비스 수출지원 플랫폼이 구현되면 이해당사자 모두에게 도움이 되며 특히 정보 인프라와 수출경험이 부족한 중소기업에게 상대적으로 더 큰 도움이 될 것이다. 또한 개방형 디지털 생태계를 통하여 이해당사자들이 정보교환, 협업, 신사업 기획 등의 기회를 만들 수 있을 것으로 기대한다.

회사채 신용등급 예측을 위한 SVM 앙상블학습 (Ensemble Learning with Support Vector Machines for Bond Rating)

  • 김명종
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.29-45
    • /
    • 2012
  • 회사채 신용등급은 투자자의 입장에서는 수익률 결정의 중요한 요소이며 기업의 입장에서는 자본비용 및 기업 가치와 관련된 중요한 재무의사결정사항으로 정교한 신용등급 예측 모형의 개발은 재무 및 회계 분야에서 오랫동안 전통적인 연구 주제가 되어왔다. 그러나, 회사채 신용등급 예측 모형의 성과와 관련된 가장 중요한 문제는 등급별 데이터의 불균형 문제이다. 예측 문제에 있어서 데이터 불균형(Data imbalance) 은 사용되는 표본이 특정 범주에 편중되었을 때 나타난다. 데이터 불균형이 심화됨에 따라 범주 사이의 분류경계영역이 왜곡되므로 분류자의 학습성과가 저하되게 된다. 본 연구에서는 데이터 불균형 문제가 존재하는 다분류 문제를 효과적으로 해결하기 위한 다분류 기하평균 부스팅 기법 (Multiclass Geometric Mean-based Boosting MGM-Boost)을 제안하고자 한다. MGM-Boost 알고리즘은 부스팅 알고리즘에 기하평균 개념을 도입한 것으로 오분류된 표본에 대한 학습을 강화할 수 있으며 불균형 분포를 보이는 각 범주의 예측정확도를 동시에 고려한 학습이 가능하다는 장점이 있다. 회사채 신용등급 예측문제를 활용하여 MGM-Boost의 성과를 검증한 결과 SVM 및 AdaBoost 기법과 비교하여 통계적으로 유의적인 성과개선 효과를 보여주었으며 데이터 불균형 하에서도 벤치마킹 모형과 비교하여 견고한 학습성과를 나타냈다.