• 제목/요약/키워드: Vector Algorithm

검색결과 3,100건 처리시간 0.032초

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

지능형 전망모형을 결합한 로보어드바이저 알고리즘 (Robo-Advisor Algorithm with Intelligent View Model)

  • 김선웅
    • 지능정보연구
    • /
    • 제25권2호
    • /
    • pp.39-55
    • /
    • 2019
  • 최근 은행과 증권회사를 중심으로 다양한 로보어드바이저 금융상품들이 출시되고 있다. 로보어드바이저는 사람 대신 컴퓨터가 포트폴리오 자산배분에 대한 투자 결정을 실행하기 때문에 다양한 자산배분 알고리즘이 활용되고 있다. 본 연구에서는 대표적 로보어드바이저 알고리즘인 블랙리터만모형의 강점을 살리면서 객관적 투자자 전망을 도출할 수 있는 지능형 전망모형을 제안하고 이를 내재균형수익률과 결합하여 최종 포트폴리오를 도출하는 로보어드바이저 자산배분 알고리즘을 새로이 제안하며, 실제 주가자료를 이용한 실증분석 결과를 통해 전문가의 주관적 전망을 대신할 수 있는 지능형 전망모형의 실무적 적용 가능성을 보여주고자 한다. 그동안 주가 예측에서 우수한 성과를 보여주었던 기계학습 방법 중 SVM 모형을 이용하여 각 자산별 기대수익률에 대한 예측과 예측 확률을 도출하고 이를 각각 기대수익률에 대한 투자자 전망과 전망에 대한 신뢰도 수준의 입력변수로 활용하는 지능형 전망모형을 제안하였다. 시장포트폴리오로부터 도출된 내재균형수익률과 지능형 전망모형의 기대수익률, 확률을 결합하여 최종적인 블랙리터만모형의 최적포트폴리오를 도출하였다. 주가자료는 2008년부터 2018년까지의 132개월 동안의 8개의 KOSPI 200 섹터지수 월별 자료를 분석하였다. 블랙리터만모형으로 도출된 최적포트폴리오의 결과가 기존의 평균분산모형이나 리스크패리티모형 등과 비교하여 우수한 성과를 보여주었다. 구체적으로 2008년부터 2015년까지의 In-Sample 자료에서 최적화된 블랙리터만모형을 2016년부터 2018년까지의 Out-Of-Sample 기간에 적용한 실증분석 결과에서 다른 알고리즘보다 수익과 위험 모두에서 좋은 성과를 기록하였다. 총수익률은 6.4%로 최고 수준이며, 위험지표인 MDD는 20.8%로 최저수준을 기록하였다. 수익과 위험을 동시에 고려하여 투자 성과를 측정하는 샤프비율 역시 0.17로 가장 좋은 결과를 보여주었다. 증권계의 애널리스트 전문가들이 발표하는 투자자 전망자료의 신뢰성이 낮은 상태에서, 본 연구에서 제안된 지능형 전망모형은 현재 빠른 속도로 확장되고 있는 로보어드바이저 관련 금융상품을 개발하고 운용하는 실무적 관점에서 본 연구는 의의가 있다고 판단된다.

지뢰탐지를 위한 GPR 시스템의 개발 (GPR Development for Landmine Detection)

  • Sato, Motoyuki;Fujiwara, Jun;Feng, Xuan;Zhou, Zheng-Shu;Kobayashi, Takao
    • 지구물리와물리탐사
    • /
    • 제8권4호
    • /
    • pp.270-279
    • /
    • 2005
  • 일본 문부과학성의 연구 지원하에 지뢰 탐지를 위한 GPR 시스템 개발에 관한 연구를 수행하였다. 2005 년도까지 두 종류의 새로운 지뢰탈지 GPR 시스템 원형의 개발을 완성하였으며 이를 ALIS (Advanced Landmine Imaging System)와 SAR-GPR (Synthetic Aperture Radar-Ground Penetrating Radar)이라고 명명하였다. ALIS는 금속탐지기와 GPR을 결합한 새로운 형태의 휴대용 지뢰탐지 시스템이다. 센서의 위치를 실시간으로 추적하는 시스템을 장착하여 센서에 감지된 신호를 실시간으로 영상화할 수 있도록 하였으며, 센서 위치의 추적은 센서의 손잡이에 장착한 CCD 카메라만을 이용하여 가능하도록 고안하였다. 그리고 GPR과 금속탐지기 신호를 CCD 카메라에 포착된 영상에 중첩하여 동시에 영상화하도록 설계하였기 때문에 매설된 탐지 목적물을 용이하게 그리고 신뢰할 만한 수준으로 탐지하고 구별할 수 있다. 2004년 12월에 아프가니스탄에서 ALIS의 현장 검증 실험을 수행하였으며, 이를 통해 이 연구에서 개발한 시스템을 이용하여 매설된 대인지뢰를 탐지할 수 있을 뿐만 아니라 대인지뢰와 금속 파편의 구분 또한 가능함을 보였다. SAR-GPR은 이동 로보트에 장착한 지뢰탐지 시스템으로 GPR과 금속탐지기 센서로 구성된다. 다수의 송, 수신 안테나로 구성된 안테나 배열을 채택하여 개선된 신호처리 기법의 적용을 가능하며, 이를 통해 좀 더 나은 지하 영상의 획득이 가능하다. SAR-GPR에 합성개구 레이다 알고리듬을 채용함으로써 원하지 않는 클러터(clutter)신호를 억제하고 불균질도가 높은 매질 내부에 매설된 목적물을 영상화할 수 있다. SAR-GPR은 새로이 개발한 휴대용 벡터 네트워크 분석기를 이용한 스텝 주파수 레이다 시스템(stepped frequency radar system)으로 6 개의 Vivaldi 안테나와 3 개의 벡터 네트워크 분석기로 구성된다. SAR-GPR의 크기는 $30cm{\times}30cm{\times}30cm$, 중량은 17 kg 정도이며 소형 무인 차량의 로보트 팔에 장착된다. 이 시스템의 현장 적용 실험은 2005 년 3 월 일본에서 성공적으로 실시된 바 있다.

시청자 프로파일 추론 기법을 이용한 표적 광고 서비스 (Target Advertisement Service using a Viewer's Profile Reasoning)

  • 김문조;임정연;강상길;김문철;강경옥
    • 방송공학회논문지
    • /
    • 제10권1호
    • /
    • pp.43-56
    • /
    • 2005
  • 기존의 방송환경은 시청자에게 단 방향의 서비스를 제공하며, 시청자 각자의 취향에 상관없이 소극적인 자세를 요구한다. 이러한 일방적인 사용자 시청환경에서, 대개의 프로그램들은 방송사에 의해 다수 사용자의 대표적인 시간대에 적절하게 배치되며, 그러한 프로그램의 인기도 혹은 시청 연령, 시간대에 따른 광고가 그 프로그램을 지원하게 된다. 시청자의 적극적 선별 노력에 의해 선택된 프로그램과 달리 그에 딸린 광고는 사용자가 원하는 대개의 프로그램을 지원하는 중요한 수단이지만, 정작 시청자의 관심과는 상관없이 제공된다. 또한 디지털 방송치 시작과 함께 양방향 서비스 환경에서도 사용자를 고려한 광고의 적절한 분배가 이루어지지 않고 있다. 이러한 일률적인 광고 컨텐츠의 제공은 시청자의 무관심을 초래할 수 있으며, 이러한 경향이 높을수록 효율적인 정보 제공에 많은 제한을 받을 수 있다. 본 논문에서는. 제한적 정보 제공의 해소와 새로운 시청 환경 제안을 위한, 시청자의 성별, 연령 그리고 직업과 같은 프로파일 정보에 따른 맞춤형 광고, 즉 표적 광고 서비스(Target Advertisement Service)를 제안한다. 제안된 표적 광고 서비스는 개인 정보 유출의 피해 없이 사용자의 시청 정보를 이용해 사용자의 프로파일 정보를 예측하며, 예측된 정보를 이용하여 사용자에게 맞는 광고 콘텐츠를 전달한다. 본 논문의 실험을 위해 AC Nielsen Korea에서 제공된 실제 연령대별. 성별. 시간대별로 기록된 사용자의 TV 시청 자료를 사용하였으며, 실험 결과를 통해 본 논문에서 제안된 두 가지 표적 광고 서비스 알고리즘. 즉, 정규거리합(Normalized Distance Sum)과 벡터 상관법(Vector Correlation)의 효율성 검증과 이를 이용한 표적 광고 서비스 프로토타입 시스템을 보인다.te TC-POXR-2의 열전도도가 1.13 W/mK, 그리고 TC-POXR-4가 1.19 W/mK였으며 이는 단일입자경을 갖는 충전제를 가하여 제조한 경우보다 높은 열전도성을 나타내었다. 제조하였으며 이들의 기계적 및 열전도 특성 그리고 체적 저항을 측정하였다. 달랐지만 단측검정 결과 유의하지 않았다.C)와 파인크리크 CC(Pine Creek CC)가 하나의 군을 형성하고 있었다. 블루헤런 CC(Blue Heron CC)는 다른 군과는 또 다른 의미로서 구분되었는바, 블루헤런 CC(Blue Heron CC)는 경관적 의미에 대한 가치평가가 놀은 결과로서 하나의 군으로 나누어 졌다.과 백삼의 효과 우열의 측면이 아닌 그 용도와 적응증에 차이가 있는지에 초점을 맞추어 보다 과학적 평가가 이루어져야 할 것이다. 결론적으로 가능한 동일한 재배조건에서 생산된 원료수삼으로 제조된 홍삼과 백삼의 원 생약과 그 추출 분획물, 또는 성분을 시료로 하여 화학성분 조성을 비교하고 이와 연계한 실험적 효능연구의 확충과 특히 임상적 효능 비교연구를 통해 과연 그 적응증에 차이가 있는지에 대한 보다 많은 과학적 검토가 이루어져야 할 것이다.ontrol (43.4 mg/L)에 비해 2.17배로 증가되었다.재래시장과 백화점에서 시판되고 있는 계란 총 446개에 대해서도 동일한 절차와 방법으로 조사하였던바, 재래시장에서 구입했던 계란의 난각부분(Egg-shell)에서만 가금티푸스(fowl Typhoid)의 병원체인 S. gallinarum이 1주$(0.2\%)$만이 분리되었고, 기타 세균으로서는 대장균군이 역시 난각에서 가장 높은 빈도로 분리되었고, 난황(Yolk)에서는 극히 낮은 수준의 세균오염도를 보였다. 다양한 동물종유래 S. aureus 균주들의 유전학적 분석목적에 가장 신뢰도 높고 감별능력이 뛰어난

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

산림 총일차생산량 예측의 공간적 확장을 위한 인공위성 자료와 기계학습 알고리즘의 활용 (Application of Machine Learning Algorithm and Remote-sensed Data to Estimate Forest Gross Primary Production at Multi-sites Level)

  • 이보라;김은숙;임종환;강민석;김준
    • 대한원격탐사학회지
    • /
    • 제35권6_2호
    • /
    • pp.1117-1132
    • /
    • 2019
  • 산림생태계 내의 총일차생산량은 산림 자원 생산량과 직결되고, 산림생태계의 건강성, 산림식물계절 및 생태계 서비스의 중요한 지표가 된다. 이 연구에서는 인공위성 자료와 기계학습 알고리즘을 활용하여 우리 나라의 산림유역의 총일차생산량을 연구하였다. 에디공분산 타워가 있는 6개 지점에서의 MODIS (Moderate Resolution Imaging Spectroradiometer) 산출물과 에디공분산타워의 총일차생산성으로 연구기간의 75%-80%에 해당하는 자료로 기계학습 알고리즘을 훈련하고 나머지 기간으로 구축된 모델의 총일차생산성 예측 결과를 검증하였다. 모델을 구축할 때 MODIS 지상 산출물과 대기 산출물을 조합하여 새로운 입력자료(e.g., 포화수증기압차)를 모델의 입력자료(Processed MODIS)로 사용하였을 때와 이러한 과정 없이 QC(Quality control)만 거친 MODIS 산출물을 그대로 입력자료(Unprocessed MODIS)로 사용하였을 때의 총일차생산량을 비교해 보고 그 활용 가능성에 대해 고찰하였다. 추가로 MODIS 총일차생산량 산출물(MYD17)과 에디공분산 총일차생산성 및 기계학습 알고리즘 기반의 총일차생산성과의 상관관계를 보고 그 적합성에 대해 논의하였다. 이 연구에서 사용된 기계학습 알고리즘은 Support Vector Machine (SVM)으로 산림생태계 연구에서 가장 많이 사용되고 있는 기계학습 알고리즘 중 하나이다. 기계학습 알고리즘 기반(SVM 모델)의 총일차생산량 예측 결과는 MODIS 총일차생산량 산출물(MYD17)보다 에디공분산 총일차생산량과 전반적으로 높은 상관관계를 보였고 특히 식생 성장을 시작하는 시점의 값을 좀더잘 예측하는 결과를 보였다. 단일 지역에서 Unprocessed MODIS 입력자료로 훈련된 SVM 모델 결과는 피어슨 상관계수 0.75 - 0.95 (p < 0.001), 6개의 연구 지점에서 훈련된 SVM 모델 결과는 피어슨 상관계수 0.77 - 0.94 (p < 0.001) 사이를 보였다. 이 결과는 훈련 자료에 다양한 이벤트들이 포함되면 모델의 예측력이 향상되는 가능성을 보여주었고 위성영상의 산출물을 재계산하여 새로운 산출물을 내는 과정을 거친 위성 자료가 아니어도 그 예측력에는 크게 문제가 없음을 보여주었다.

포렌식 마킹을 위한 특징점 기반의 동적 멀티미디어 핑거프린팅 코드 설계 (A Design on the Multimedia Fingerprinting code based on Feature Point for Forensic Marking)

  • 이강현
    • 전자공학회논문지CI
    • /
    • 제48권4호
    • /
    • pp.27-34
    • /
    • 2011
  • 본 논문에서는 멀티미디어 콘텐츠 보호에 대한 반공모 코드를 위한 동적 멀티미디어 핑거프린팅 코드를 설계하는 알고리즘을 제안한다. 기존의 반공모 코드(ACC: Anti-Collusion Code)를 위한 멀티미디어 핑거프린팅 코드는 BIBD(Balanced Incomplete Block Design)의 접속행렬을 보수행렬로 변환하여 k를 k+1로 증대시키는 수리적 방법으로 설계되었다. 그리고 보수행렬의 코드벡터를 사용자에게 핑거프린팅 코드로 부여하고, 콘텐츠에 삽입하였다. 제안된 알고리즘에서는 사용자가 구매하는 콘텐츠로부터 특징점을 추출하고, 이를 기반으로 동적으로 핑거프린팅 코드를 설계할 수 있도록 BIBD의 v와 k+1 조건을 만족하는 반공모 코드의 후보성 코드를 코드북(Codebook)에 구축하고 ${\lambda}+1$ 조건을 만족하는 행렬(이하, Rhee행렬이라 함.)을 생성한다. 실험을 통하여 콘텐츠의 특징점 기반으로 생성된 Rhee행렬의 코드벡터는 v비트의 유의수준 ($1-{\alpha}$)에서 신뢰구간에 k가 존재하며, Rhee행렬의 각 행과 행, 열과 열 사이의 유클리디안 거리가 BIBD 기반의 보수행렬과 그래프 기반의 보수행렬과 같은 k값이 산출되었다. 더욱이 Rhee행렬의 첫 행과 첫 열은 생성과정에서 초기 점화벡터로 콘텐츠 포렌식 마크 정보가 되며, 이와 관계가 있는 나머지 코드벡터들과의 관계성이 코드북에 기록되어 있기 때문에, 공모된 코드를 추적할 때 원 핑거프린팅 코드의 상관관계 계수를 구할 필요 없이 코드북의 탐색으로 공모자를 추적이 용이하다. 따라서 본 논문에서 생성된 Rhee행렬은 수리적으로 생성된 BIBD 기반의 행렬보다 ACC로서 강인성과 충실도가 우수하다.

전통문화 콘텐츠 표준체계를 활용한 자동 텍스트 분류 시스템 (A System for Automatic Classification of Traditional Culture Texts)

  • 허윤아;이동엽;김규경;유원희;임희석
    • 한국융합학회논문지
    • /
    • 제8권12호
    • /
    • pp.39-47
    • /
    • 2017
  • 한국 문화의 역사, 전통과 관련된 디지털 웹 문서가 증가하게 되었다. 하지만 창작자 또는 전통 문화와 관련된 소재를 찾는 사용자들은 정보를 검색해도 결과가 충분하지 않았으며 원하는 정보를 얻지 못하는 경우가 나타나고 있다. 이런 효과적인 정보를 접하기 위해서는 문서 분류가 필요하다. 과거에 문서 분류는 작업자가 수작업으로 문서 분류하여 시간과 비용이 많이 소비하는 어려움이 있었지만, 최근 기계학습 기반으로 한 자동 문서 분류를 통해 효율적인 문서 분류가 이루어진다. 이에 본 논문은 전통문화 콘텐츠를 체계적인 분류체계로 구성한 한민족정보문화마당 데이터를 기반으로 전통문화 콘텐츠 자동 텍스트 분류 모델을 개발한다. 본 연구는 한민족정보문화마당 텍스트 데이터에 대해 단어 빈도수를 추출하기 위해 TF-IDF모델, Bag-of-Words 모델, TF-IDF/Bag-of-Words를 결합한 모델을 적용하여 각각 SVM 분류 알고리즘을 사용하여 전통문화 콘텐츠 자동 텍스트 분류 모델을 개발하여 성능평가를 확인하였다.

다차원 컬러벡터 기반 백태 및 황태 분류 판별함수 설계 (Design of Discriminant Function for White and Yellow Coating with Multi-dimensional Color Vectors)

  • 이전;최은지;유현희;이혜정;이유정;박경모;김종열
    • 한국한의학연구원논문집
    • /
    • 제13권2호통권20호
    • /
    • pp.47-52
    • /
    • 2007
  • In Oriental medicine, the status of tongue is the important indicator to diagnose one's health, because it represents physiological and clinicopathological changes of inner parts of the body. The method of tongue diagnosis is not only convenient but also non-invasive, therefore, tongue diagnosis is one of the most widely used in Oriental medicine. But tongue diagnosis is affected by examination circumstances a lot. It depends on a light source, degrees of an angle, doctor's condition and so on. So it is not easy to make an objective and standardized tongue diagnosis. As part of way to solve this problem, in this study, we tried to design a discriminant function for white and yellow coating with multi-dimensional color vectors. There were 62 subjects involved in this study, among them 48 subjects diagnosed as white-coated tongue and 14 subjects diagnosed as yellow-coated tongue by oriental doctors. And their tongue images were acquired by a well-made Digital Tongue Diagnosis System. From those acquired tongue images, each coating section were extracted by oriental doctors, and then mean values of multi -dimensional color vectors in each coating section were calculated. By statistical analysis, two significant vectors, R in RGB space and H in HSV space, were found that they were able to describe the difference between white coating section and yellow coating section very well. Using these two values, we designed the discriminant function for coating classification and examined how good it works. As a result, the overall accuracy of coating classification was 98.4%. We can expect that the discriminant function for other coatings can be obtained in a similar way. Furthermore, if an automated segmentation algorithm of tongue coating is combined with these discriminant functions, an automated tongue coating diagnosis can be accomplished.

  • PDF

H.264/AVC의 시간적 오류 은닉을 위한 경계 정합과 후처리 방법 (A Boundary Matching and Post-processing Method for the Temporal Error Concealment in H.264/AVC)

  • 이준우;나상일;원인수;임대규;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제12권11호
    • /
    • pp.1563-1571
    • /
    • 2009
  • H.264/AVC의 시간적 오류 은닉을 위한 새로운 경계 정합 방법과 은닉된 영상의 화질 향상을 위한 후처리 방법을 제안한다. 시간적 오류 은닉은 참조 프레임에서 가장 유사한 블록으로 오류가 발생한 블록을 대체시키는 방법이다. 가장 유사한 블록을 찾기 위해 H.264/AVC에서는 오류가 발생한 블록의 바깥 경계의 화소값과 참조블록의 안쪽 경계의 화소값을 단순 비교한다. 그러나 기존의 방법은 좁은 범위의 화소값 만을 비교하므로 부정확한 블록으로 오류 블록을 대체할 확률이 높다. 본 논문에서는 더욱 정확한 블록으로 오류 블록을 대체하기 위하여 참조 블록의 안쪽 경계의 화소값과 바깥 경계의 화소값을 오류 블록의 바깥 경계의 화소값과 비교하고 후보 움직임 벡터의 최솟값과 최댓값을 기준으로 일정 검색 범위내의 추가적인 후보 움직임 벡터를 설정하는 보다 향상된 경계 정합 방법, 그리고 변형된 디블록킹 필터를 통해 오류 없이 복호된 블록과 오류가 은닉된 블록과의 경계를 부드럽게 하는 후처리 방법을 제안한다. 실험을 통하여 제안된 방법이 기존의 블록 정합방법보다 최대 약 0.9 dB의 화질 향상을 보여주는 것을 확인하였다.

  • PDF