• 제목/요약/키워드: Random sets

검색결과 276건 처리시간 0.028초

의사결정트리 프로그램 개발 및 갑상선유두암에서 질량분석법을 이용한 단백질 패턴 분석 (Development of Decision Tree Software and Protein Profiling using Surface Enhanced laser Desorption/lonization - Time of Flight - Mass Spectrometry (SELDI-TOF-MS) in Papillary Thyroid Cancer)

  • 윤준기;이준;안영실;박복남;윤석남
    • Nuclear Medicine and Molecular Imaging
    • /
    • 제41권4호
    • /
    • pp.299-308
    • /
    • 2007
  • 본 연구의 목적은 의사결정트리를 생성하는 생물정보학 프로그램을 개발하고, 이를 갑상선유두암 혈청의 질량분석자료로 시험해 보는 것이다. 대상 및 방법: C4.5를 커스터마이징하여 의사결정트리 분석을 수행할 수 있는 'Protein analysis'라는 프로그램을 개발하였다 61개의 혈청시료(갑상선유두암 27, 자가면역성 갑상선염 17, 대조군 17)를 일정 기간 동안 순차적으로 냉동한 후 실온에서 일시에 해동하여 분석에 사용하였다. 모든 시료는 탈지질화 과정을 거쳐 준비한 후, 2종류의 단백질칩(CM10, IMAC3)에 각각 60개, 50개 시료를 적용하였다. 갑상선유두암의 특징적인 단백질 패턴을 찾기 위해 질량분석기를 이용하여 단백질칩을 분석했다. 'Protein analysis' 프로그램을 이용하여 단백질분포 자료로부터 의사결정트리를 작성하고, 생체표지자 후보물질을 검출하였다. CM10칩에서 발견된 생체표지자 후보물질을 무작위 표본추출 방법을 이용하여 검증하였다. 결과: 단백질분포 자료의 훈련과 검증이 가능한 의사결정트리 프로그램이 개발되었으며, 이 프로그램은 트리 구조와 노드 정보, 트리 구성 과정을 표시하는 3개의 창으로 구성되었다. CM10칩을 이용한 분석에서 총 113개의 단백질 피크 중 23개가 3그룹 간에 유의한 차이가 있었으며, IMAC3는 41개의 단백질 피크 중 8개가 3그룹 간에 유의한 차이가 있었다. 3그룹 분석에서 의사결정트리는 CM10칩과 IMAE3의 단백질분포 자료로부터 각각 60개와 50개의 시료를 높은 정확도로 분류하였으며(오차율 = 각각 3.3%, 2.0%), 각각 4개와 7개의 생체표지자 후보물질을 검출하였다. 암시료와 비암시료를 구분하는 2그룹 분석 에서, 의사결정트리는 모든 암시료를 정확히 구분하였으며(모두 오차율 = 0%), CM10칩을 이용한 분석에서는 단일 노드를 사용하고, IMAC3칩을 이용한 분석에서는 여러 개의 노드를 사용하였다. CM10칩의 단백질 분포자료를 5번의 무작위 추출에 의해 시행한 검증에서 암시료와 비암시료를 구분하는데 높은 정확도를 보였으나(정확도 = 98%, 54/55), 3그룹을 구분할 때는 중등도의 정확도를 보였다(정확도 = 65%, 36/55). 결론: 우리가 개발한 프로그램은 질량분석 자료로부터 성공적으로 의사결정트리를 생성하고, 생체표지자 후보물질을 검출할 수 있었다. 따라서 이 프로그램은 혈청 시료를 이용한 생체표지자 발굴 및 갑상선유두암의 추적관찰에 유용하게 사용될 수 있을 것이다.

Pig6 DNA probe를 기반으로 하는 Prevotella intermedia ATCC 49046 균주-특이 PCR primer 개발 (Development of prevotella intermedia ATCC 49046 Strain-Specific PCR Primer Based on a Pig6 DNA Probe)

  • 정승우;유소영;강숙진;김미광;장현선;이광용;김병옥;국중기
    • 미생물학회지
    • /
    • 제42권2호
    • /
    • pp.89-94
    • /
    • 2006
  • 본 연구는 치주질환 병인론 연구에 빈번히 사용되는 Prevotella intermedia ATCC 49046 균주를 특이적으로 검출 및 동정할 수 있는 PCR primer를 개발하기 위하여 시행하였다. P. intermedia ATCC 49046 유전체 DNA를 추출하고, Hind III 제한효소를 이용하여 무작위 클로닝법으로 유전체 DNA 절편을 얻었다. Southern blot 분석법을 이용하여 DNA 절편의 특이성을 조사하였고, chain termination 법을 이용하여 핵산염기서열을 결정하였다. 이를 바탕으로 PCR primer를 설계하고, P. intermedia ATCC 49046에 대한 균주 특이성 및 검출 한계(민감도)를 조사하였다. Southern blot 분석 결과 Pig6 DNA probe는 서양인에서 분리 동정된 P. intermedia 균주와만 hybridization하였고, 한국인에서 분리 동정된 P. intermedia균주들과는 반응이 없었다. Pig6 DNA probe는 813 bp의 핵산염기로 구성되어 있었으며, 이를 바탕으로 설계된 Pig6-F3와 Pig6-R3 primer 쌍에 의해서는 서양 균주에 특이적인 PCR산물이 증폭되었다. Pig6-60F와 Pig6-770R primer 쌍에 의해서는 P. intermedia ATCC 49046 유전체 DNA에서만 특이적인 PCR 산물이 증폭되었다. 두 가지 primer 쌍들 각각에 대한 P. intermedia 유전체 DNA량의 검출 한계를 알아보기 위한 민감도실험 결과 두가지 primer 쌍들 모두 4 pg (약2000마리)까지 검출 가능하였다. 이상의 연구결과를 종합하면, Pig6-60F와 Pig6-770R primer쌍은 P. intermedia ATCC 49046을 균주 특이적으로 동정할 수 있어, 이 균주의 보존적 측면에서 유용하게 이용될 수 있을 것으로 사료된다.

한반도 식생에 대한 MODIS 250m 자료의 BRDF 효과에 대한 반사도 정규화 (A Reflectance Normalization Via BRDF Model for the Korean Vegetation using MODIS 250m Data)

  • 염종민;한경수;김영섭
    • 대한원격탐사학회지
    • /
    • 제21권6호
    • /
    • pp.445-456
    • /
    • 2005
  • 지표변수는 지면 근처의 기후변화에 중요한 역할을 하기 때문에, 충분히 높은 정확성을 가진 값이 산출되어야 한다 하지만 지표 반사도는 강한 이방성(non-Lambertian) 특징을 가지고 있기 때문에, 위성 천저각으로부터 멀어질수록 태양-지점-위성과의 기하학적 영향을 더욱 강하게 받는 효과를 가져온다. 또한 지표 각 영향을 포함하고 있는 지표 반사도는 노이즈를 가지게 된다. 따라서 본 연구의 목적은 한반도 지역의 MODIS 반사도 자료(250m)를 이용하여 각 영향이 제거된 보다 정확한 반사도 값에 대한 데이터베이스를 제공하는 것이다. 본 연구에서는 매일 2회씩 제공하는 MODIS(Moderate Resolution Imaging Spoctroradiometer) 센서의 가시영역과 근적외영역의 반사도(250m)자료를 이용하였다. 먼저 구름화소를 제거하기 위해서 연속적인 물리과정을 통하여 각각의 구름 화소를 제거하였다. 그리고 지리보정은 MODIS 센서에서 제공하는 지리정보자료를 이용하여 2차 다항회귀식을 통한 최근접 내삽법을 사용하였다. 본 연구에서는 지표 이방성 효과를 보정하기 위해서 반 경험적 양방향성분포함수(BRDF) 모델을 사용하였다. 이 알고리즘은 위성으로부터 관측된 위성천정각, 태양천정각, 위성방위각, 태양방위각과 같은 각 성분을 이용하여 Kernel-deriven 모델의 역변환을 통하여 지표 반사도를 재생산한다. 먼저 우리는 BRDF 모델을 수행하기 위해 총 31일 모델 관측 실행기간을 고려하였다. 다음 단계로 각각의 화소 및 밴드에 대해서 BRDF 모델을 통하여 분리된 각 성분들을 변조함으로써 위성 직하점 반사도 정규화가 수행되었다. 모델을 이용하여 산출된 반사도 값은 실제 위성 반사도 값과 잘 일치하였고, RMSE(Root Mean Square Error)값은 전체적으로 약 0.01(최고값=0.03)이였다. 마지막으로, 우리는 한반도 지역에 대해서 2001년 동안 총 36개로 구성된 정규화 지표반사도 값의 데이터베이스를 구축하였다.

Deep Convolution Neural Networks 이용하여 결함 검출을 위한 결함이 있는 철도선로표면 디지털영상 재 생성 (Regeneration of a defective Railroad Surface for defect detection with Deep Convolution Neural Networks)

  • 김현호;한석민
    • 인터넷정보학회논문지
    • /
    • 제21권6호
    • /
    • pp.23-31
    • /
    • 2020
  • 본 연구는 철도표면상에 발생하는 노후 현상 중 하나인 결함 검출을 위해 학습데이터를 생성함으로써 결함 검출 모델에서 더 높은 점수를 얻기 위해 진행되었다. 철도표면에서 결함은 선로결속장치 및 선로와 차량의 마찰 등 다양한 원인에 의해 발생하고 선로 파손 등의 사고를 유발할 수 있기 때문에 결함에 대한 철도 유지관리가 필요 하다. 그래서 철도 유지관리의 자동화 및 비용절감을 위해 철도 표면 영상에 영상처리 또는 기계학습을 활용한 결함 검출 및 검사에 대한 다양한 연구가 진행되고 있다. 일반적으로 영상 처리 분석기법 및 기계학습 기술의 성능은 데이터의 수량과 품질에 의존한다. 그렇기 때문에 일부 연구는 일반적이고 다양한 철도표면영상의 데이터베이스를 확보하기위해 등간격으로 선로표면을 촬영하는 장치 또는 탑재된 차량이 필요로 하였다. 본연구는 이러한 기계적인 영상획득 장치의 운용비용을 감소시키고 보완하기 위해 대표적인 영상생성관련 딥러닝 모델인 생성적 적대적 네트워크의 기본 구성에서 여러 관련연구에서 제시된 방법을 응용, 결함이 있는 철도 표면 재생성모델을 구성하여, 전용 데이터베이스가 구축되지 않은 철도 표면 영상에 대해서도 결함 검출을 진행할 수 있도록 하였다. 구성한 모델은 상이한 철도 표면 텍스처들을 반영한 철도 표면 생성을 학습하고 여러 임의의 결함의 위치에 대한 Ground-Truth들을 만족하는 다양한 결함을 재 생성하도록 설계하였다. 재생성된 철도 표면의 영상들을 결함 검출 딥러닝 모델에 학습데이터로 사용한다. 재생성모델의 유효성을 검증하기 위해 철도표면데이터를 3가지의 하위집합으로 군집화 하여 하나의 집합세트를 원본 영상으로 정의하고, 다른 두개의 나머지 하위집합들의 몇가지의 선로표면영상을 텍스처 영상으로 사용하여 새로운 철도 표면 영상을 생성한다. 그리고 결함 검출 모델에서 학습데이터로 생성된 새로운 철도 표면 영상을 사용하였을 때와, 생성된 철도 표면 영상이 없는 원본 영상을 사용하였을 때를 나누어 검증한다. 앞서 분류했던 하위집합들 중에서 원본영상으로 사용된 집합세트를 제외한 두 개의 하위집합들은 각각의 환경에서 학습된 결함 검출 모델에서 검증하여 출력인 픽셀단위 분류지도 영상을 얻는다. 이 픽셀단위 분류지도영상들과 실제 결함의 위치에 대한 원본결함 지도(Ground-Truth)들의 IoU(Intersection over Union) 및 F1-score로 평가하여 성능을 계산하였다. 결과적으로 두개의 하위집합의 텍스처 영상을 이용한 재생성된 학습데이터를 학습한 결함 검출모델의 점수는 원본 영상만을 학습하였을 때의 점수보다 약 IoU 및 F1-score가 10~15% 증가하였다. 이는 전용 학습 데이터가 구축되지 않은 철도표면 영상에 대해서도 기존 데이터를 이용하여 결함 검출이 상당히 가능함을 증명하는 것이다.

벤처기업정밀실태조사와 한국기업혁신조사 데이터를 활용한 통계적 매칭의 타당성 검증 (The Validity Test of Statistical Matching Simulation Using the Data of Korea Venture Firms and Korea Innovation Survey)

  • 안경민;이영찬
    • 지식경영연구
    • /
    • 제24권1호
    • /
    • pp.245-271
    • /
    • 2023
  • 최근 데이터 경제가 가속화되면서 경영학 분야에서는 데이터 매칭이라는 새로운 기법이 주목받고 있다. 데이터 매칭은 모집단이 같지만 서로 다른 표본에서 수집된 데이터셋을 합치는 기법 또는 처리 과정을 의미한다. 그중에서 통계적 매칭은 서로 다른 데이터를 결합하는데 있어서 사업자 번호와 같이 기준이 되는 변수가 없는 경우 통계적 함수를 활용하여 데이터를 매칭하는 방법이다. 선행연구 검토결과 경제학, 교육학, 보건, 의료 등 다양한 분야에서 통계적 매칭이 많이 사용되고 있는데 반해 경영학 분야는 제한적임을 확인할 수 있었다. 본 연구는 기존 경영학 분야에서 충분히 연구되지 않았던 통계적 매칭의 유용성을 검증하고 활용도를 높이는 방안을 연구하고자 한다. 연구목적을 달성하기 위해 본 연구에서는 2020 벤처기업정밀실태조사와 2020 한국기업혁신조사 자료를 활용하여 통계적 매칭 시뮬레이션을 수행하였다. 먼저, 선행연구를 바탕으로 통계적 매칭에 사용되는 변수를 선정하였다. 공통변수는 업종, 종업원수, 지역, 업력, 상장시장, 매출로 설정하였고, 검증을 위한 고유변수와 제공변수는 중소기업 혁신에서 가장 중요한 연구인력 비율과 R&D 비용으로 각각 설정하였다. 사전 검증을 위해 2020 벤처기업정밀실태조사 자료를 수여자 데이터 30%와 기여자 데이터 70%로 분할하였다. 통계적 매칭에는 마할라노비스 거리와 랜덤 핫덱을 결합한 방식을 사용하였고, 성능평가는 수여자 데이터와 원시 데이터의 평균값 비교와 커널 밀도 함수(Kernel Density Estimation)를 통해 데이터 분포를 비교하였다. 검증결과, 수여자 데이터 30%와 기여자 데이터 70%에서 추출된 매칭 데이터의 평균값이 통계적으로 유의한 차이가 없는 것으로 나타나 유사한 데이터가 매칭된다는 것을 확인하였다. 또한, 두 데이터의 커널 밀도 함수로 도출한 데이터 분포 역시 유사한 형태가 나타나는 것을 확인할 수 있었다. 사후 검증에는 2020 벤처기업정밀실태조사에서 임의로 30%를 수여자 데이터로 추출하고 2020 한국기업혁신조사 자료를 기여자 데이터로 설정하여 통계적 매칭을 수행하고 검증하였다. 사전 검증과 마찬가지로 공통변수는 업종, 종업원수, 지역, 업력, 상장시장, 매출로 설정하였고, 검증을 위한 고유변수는 연구 인력 비율과 R&D 비용으로 정의하였다. 분석 결과, 수여자 데이터의 연구인력 비율의 평균과 기여자 데이터의 평균은 예상과 다르게 통계적으로 차이가 있는 것으로 나타났다. 하지만 커널 밀도 함수에 따른 두 데이터의 분포는 유사한 형태를 보이는 것으로 조사되어 통계적 매칭의 적절성을 확인할 수 있었다. R&D 비용은 통계적 매칭 수행 결과, 수여자 데이터의 R&D 비용 평균과 기여자 데이터의 평균이 통계적으로 차이가 없었고, 커널 밀도 함수도 유사한 분포를 보이는 것으로 조사되었다. 이러한 결과는 모집단은 동일하지만 서로 다른 표본에서 수집된 자료를 통계적으로 결합하여 신뢰할 수 있는 새로운 데이터를 확보할 수 있다는 측면에서 큰 의의가 있다. 또한, 경영학 분야에서 많이 사용되지 않았던 데이터 매칭 방법론을 모의실험을 통해 타당성을 검증함으로써 연구용 데이터 확보와 연구방법론의 확장에 기여했다는 점에서 시사점을 가진다.

CNN을 적용한 한국어 상품평 감성분석: 형태소 임베딩을 중심으로 (Sentiment Analysis of Korean Reviews Using CNN: Focusing on Morpheme Embedding)

  • 박현정;송민채;신경식
    • 지능정보연구
    • /
    • 제24권2호
    • /
    • pp.59-83
    • /
    • 2018
  • 고객과 대중의 니즈를 파악하기 위한 감성분석의 중요성이 커지면서 최근 영어 텍스트를 대상으로 다양한 딥러닝 모델들이 소개되고 있다. 본 연구는 영어와 한국어의 언어적인 차이에 주목하여 딥러닝 모델을 한국어 상품평 텍스트의 감성분석에 적용할 때 부딪히게 되는 기본적인 이슈들에 대하여 실증적으로 살펴본다. 즉, 딥러닝 모델의 입력으로 사용되는 단어 벡터(word vector)를 형태소 수준에서 도출하고, 여러 형태소 벡터(morpheme vector) 도출 대안에 따라 감성분석의 정확도가 어떻게 달라지는지를 비정태적(non-static) CNN(Convolutional Neural Network) 모델을 사용하여 검증한다. 형태소 벡터 도출 대안은 CBOW(Continuous Bag-Of-Words)를 기본적으로 적용하고, 입력 데이터의 종류, 문장 분리와 맞춤법 및 띄어쓰기 교정, 품사 선택, 품사 태그 부착, 고려 형태소의 최소 빈도수 등과 같은 기준에 따라 달라진다. 형태소 벡터 도출 시, 문법 준수도가 낮더라도 감성분석 대상과 같은 도메인의 텍스트를 사용하고, 문장 분리 외에 맞춤법 및 띄어쓰기 전처리를 하며, 분석불능 범주를 포함한 모든 품사를 고려할 때 감성분석의 분류 정확도가 향상되는 결과를 얻었다. 동음이의어 비율이 높은 한국어 특성 때문에 고려한 품사 태그 부착 방안과 포함할 형태소에 대한 최소 빈도수 기준은 뚜렷한 영향이 없는 것으로 나타났다.