• 제목/요약/키워드: machine-learning

검색결과 5,432건 처리시간 0.033초

하천 내 지표 피복 분류를 위한 Sentinel-2 영상 기반 랜덤 포레스트 기법의 적용성 연구 - 내성천을 사례로 - (Application study of random forest method based on Sentinel-2 imagery for surface cover classification in rivers - A case of Naeseong Stream -)

  • 안성기;이찬주;김용민;최훈
    • 한국수자원학회논문집
    • /
    • 제57권5호
    • /
    • pp.321-332
    • /
    • 2024
  • 하천 공간의 지표 피복 현황 파악은 하천 관리 및 홍수 재해 예방에 필수적이다. 기존 조사 방법은 전문가에 의한 식생 판독을 통한 식생도 작도 방법이나 식생지수를 활용하는 방법이 활용되어 왔으나, 역동적으로 변화하는 하천 환경을 반영하기에 한계가 있다. 이러한 배경에서 본 연구는 내성천을 대상으로 위성영상 자료를 활용한 랜덤 포레스트 기법을 활용하여 다수 연도의 하천 내 식생 분포를 파악하고, 적용성을 검토하였다. 원격탐사 자료 Sentinel-2 위성 영상을 사용하였으며, 지상 참값(ground truth)은 2016년 내성천 지표 피복 자료를 활용하였다. 랜덤 포레스트 머신러닝 알고리듬을 활용하여 미리 선정된 10개 샘플링 영역으로부터 분류군 별로 1,000개의 표본을 추출하여 훈련 및 검증하였으며, 민감도 분석, 연도별 지표 피복 분석, 정확도 분석을 통하여 적용성을 평가하였다. 연구 결과, 검증 자료 기반의 정확도는 85.1%로 나타났다. 트리 수, 샘플 수, 하천 구역에 대한 민감도 분석 결과, 각각 30개, 800개, 하류에서 효율성이 높았다. 지표 분류 유형은 6개 항목에서 높은 정확도를 보여 지표 피복 분류 결과가 실제 하천 환경을 잘 반영하는 것으로 나타났다. 정확도 분석 결과, 전체 샘플 중 14.9%의 경계오류와 내부오류를 확인하였으며, 지표 피복 분류 중 산발 식생과 초본 식생을 제외한 항목들은 높은 정확도를 보였다. 본 연구에서는 단일 하천을 대상으로 적용하였지만, 보다 정확하고 많은 자료의 구축을 위해서는 다수의 하천에 대해 지표 피복 분류 기법의 적용이 요구된다.

선택적 자질 차원 축소를 이용한 최적의 지도적 LSA 방법 (Optimal supervised LSA method using selective feature dimension reduction)

  • 김정호;김명규;차명훈;인주호;채수환
    • 감성과학
    • /
    • 제13권1호
    • /
    • pp.47-60
    • /
    • 2010
  • 기존 웹 페이지 자동분류 연구는 일반적으로 학습 기반인 kNN(k-Nearest Neighbor), SVM(Support Vector Machine)과 통계 기반인 Bayesian classifier, NNA(Neural Network Algorithm)등 여러 종류의 분류작업에서 입증된 분류 기법을 사용하여 웹 페이지를 분류하였다. 하지만 인터넷 상의 방대한 양의 웹 페이지와 각 페이지로부터 나오는 많은 양의 자질들을 처리하기에는 공간적, 시간적 문제에 직면하게 된다. 그리고 분류 대상을 표현하기 위해 흔히 사용하는 단일(uni-gram) 자질 기반에서는 자질들 간의 관계 분석을 통해 자질에 정확한 의미를 부여하기 힘들다. 특히 본 논문의 분류 대상인 한글 웹 페이지의 자질인 한글 단어는 중의적인 의미를 가지는 경우가 많기 때문에 이러한 중의성이 분류 작업에 많은 영향을 미칠 수 있다. 잠재적 의미 분석 LSA(Latent Semantic Analysis) 분류기법은 선형 기법인 특이치 분해 SVD(Singular Value Decomposition)을 통해 행렬의 분해 및 차원 축소(dimension reduction)를 수행하여 대용량 데이터 집합의 분류를 효율적으로 수행하고, 또한 차원 축소를 통해 새로운 의미공간을 생성하여 자질들의 중의적 의미를 분석할 수 있으며 이 새로운 의미공간상에 분류 대상을 표현함으로써 분류 대상의 잠재적 의미를 분석할 수 있다. 하지만 LSA의 차원 축소는 전체 데이터의 표현 정도만을 고려할 뿐 분류하고자 하는 범주를 고려하지 않으며 또한 서로 다른 범주 간의 차별성을 고려하지 않기 때문에 축소된 차원 상에서 분류 시 서로 다른 범주 데이터간의 모호한 경계로 인해 안정된 분류 성능을 나타내지 못한다. 이에 본 논문은 새로운 의미공간(semantic space) 상에서 서로 다른 범주사이의 명확한 구분을 위한 특별한 차원 선택을 수행하여 최적의 차원 선택과 안정된 분류성능을 보이는 최적의 지도적 LSA을 소개한다. 제안한 지도적 LSA 방법은 기본 LSA 및 다른 지도적 LSA 방법들에 비해 저 차원 상에서 안정되고 더 높은 성능을 보였다. 또한 추가로 자질 생성 및 선택 시 불용어의 제거와 자질에 대한 가중치를 통계적인 학습을 통해 얻음으로써 더 높은 학습효과를 유도하였다.

  • PDF

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

일주기 리듬과 일주기 유형이 경두개 직류전기자극에 의한 뇌기능 변화에 미치는 영향 탐색 (The impact of functional brain change by transcranial direct current stimulation effects concerning circadian rhythm and chronotype)

  • 정다운;유수민;이현수;한상훈
    • 인지과학
    • /
    • 제33권1호
    • /
    • pp.51-75
    • /
    • 2022
  • 경두개 직류전기자극(transcranial Direct Current Stimulation; tDCS)은 지각, 인지, 운동 등의 뇌기능 향상 및 발달 효과가 입증되며, 다양한 분야에서 활용 및 응용되는 비침습적 뇌자극술이다. tDCS 효과는 뇌의 해부학적 구조, 뇌의 노화 정도 등의 뇌신경활성화 특징에 따라 다르게 나타난다는 연구결과들이 보고되고 있다. 일주기 리듬(circadian rhythm)은 대략 하루 주기의 수면과 각성의 생리적 변화패턴을 의미하며 뇌신경활성화 상태는 일주기 리듬에 따라 다르게 나타난다. 일주기 유형(chronotype)은 하루 중에 발현되는 각성도의 크기에 따라 아침의 각성도가 큰 유형은 아침형으로 저녁의 각성도가 큰 유형은 저녁형으로 나누어진다. 본 연구는 일주기 리듬에 의해 변하는 뇌기능 특징이 tDCS 효과에 미치는 영향을 알아보고자 한다. 총 20명의 건강한 성인 대상으로 실험을 진행하였고, 참가자들은 일주기 유형을 분류하기 위해 아침형-저녁형 설문지에 의해 주간형(아침형, 중간형)과 야간형(저녁형)으로 분류했다. 본 실험은 Zoom 프로그램을 이용하여 참가자와 실험자가 온라인으로 만나서 실험을 진행했다. 실험이 확정된 참가자는 실험자로부터 뇌파 기기, 뇌파 데이터를 획득하는 앱이 있는 핸드폰, 핸드폰 거치대, 뇌자극 기기의 사용방법에 대한 설명을 듣고 기기를 테스트해보고 기기를 전달받았다. 기기사용의 어려움을 가진 2명의 참가자는 대면 실험을 진행하여, 실험자가 기기작동을 하여 실험에 참여했다. 일주기 리듬의 상태에 따른 뇌자극 효과를 알아보기 위해 1주일 간격으로 아침과 저녁에 실험했으며, tDCS 자극 전과 후의 신경활성화 반응의 차이를 뇌파를 이용하여 측정하였다. 뇌자극에 의한 뇌기능 변화를 확인하기 위해 자극 전의 뇌파와 자극 후 뇌파가 다른 패턴을 보이며 분류가 잘되는 지를 예측 정확도로 분석했으며, 뇌기능 특징 변화가 일주기 리듬과 일주기 유형에 따라 다르게 나타나는지 확인하기 위해 각 조건의 분류조건(아침/저녁, 주간형/야간형)에서 추출된 주요 EEG 특성을 비교했다. 54개의 뇌파 특성값을 추출하여 SVM(Support Vector Machine) 기계학습 알고리즘으로 분류 모델을 구축하였고, 구축된 모델을 Leave-One-Out 교차검증(Leave-One-Out Cross-Validation)을 사용하여 자극 전과 후의 뇌파 반응을 예측하는지 평가하였고, 분류예측모델의 주요 예측 인자를 확인하는 주요 특성 분석을 진행하였다. 아침과 저녁의 tDCS에 따른 뇌파 특징을 분류하는 예측 정확도는 모두 98%로 나타났으며, 주간형의 아침 자극 조건과 저녁 자극 조건의 예측 정확도는 92%와 96%이며, 야간형의 아침자극 조건과 저녁 자극 조건의 예측 정확도는 모두 94%로 나타났다. 아침 자극 전과 후의 뇌파를 분류하는 상위 3개의 주요 EEG 특성결과는 주간형과 야간형에 따라 다르게 나타났다. 주간형은 좌측 측두 두정엽과 전전두엽의 뇌파 특성값이 나타났으며, 야간형은 측두 두정엽의 뇌파 특성값들만 나타났다. 저녁 자극전과 후의 뇌파를 분류하는 상위 3개의 주요 EEG 특성 결과 또한 주간형과 야간형에 따라 다르게 나타났다. 주간형은 우측 측두 두정엽과 좌측 전두엽의 뇌파 특성값이 나타났으며, 야간형은 측두 두정엽과 전두엽의 뇌파 특성값이 나타났다. 이와 같은 연구결과는 일주기 리듬과 유형에 따라 아침과 저녁의 뇌기능 특징이 다르게 나타나서 뇌자극 효과가 다르게 나타날 수 있음을 확인한 결과이다. 본 연구의 결과는 효과적인 뇌자극을 위해 개인의 뇌신경 활성화 상태 및 특징에 따라서 뇌자극 프로토콜을 조정할 필요성을 제시한다는 데에 의의를 찾을 수 있다.

Sentinel-1 위성 영상을 활용한 침수 탐지 기법 방법론 비교 연구 (Comparative study of flood detection methodologies using Sentinel-1 satellite imagery)

  • 이성우;김완엽;이슬찬;정하규;박종수;최민하
    • 한국수자원학회논문집
    • /
    • 제57권3호
    • /
    • pp.181-193
    • /
    • 2024
  • 기후변화에 의해 발생하는 대기 불균형은 강우량의 증가로 이어지고, 침수 발생 빈도가 증가함에 따라 이를 탐지할 수 있는 기술의 필요성이 증가하고 있다. 침수 피해를 최소화하기 위해 지속적인 모니터링이 필요하며, 날씨의 영향을 받지 않는 합성개구레이더(Synthetic Aperture Radar, SAR) 영상을 활용하여 침수지역을 탐지하였다. 관측된 데이터는 median 필터를 통해 노이즈를 감소시키는 전처리 과정을 진행하였으며, 객체 탐지 기법을 통해 수체와 비수체를 분류하여 각 기법의 침수탐지 활용성을 평가하고자 하였다. 본 연구에서는 Otsu 기법과 SVM 기법을 통해 수체 및 침수 탐지를 수행하였으며, Confusion Matrix를 통해 전체적인 모델의 성능을 평가하였다. Otsu 기법은 수체와 비수체의 경계를 구분하는데 적합함을 보였으나, 혼합물의 영향을 받아 오탐지의 비율이 높게 나타났다. 반면, SVM 기법을 사용한 경우, 오탐지 비율이 낮고 혼합물에 의한 영향에 민감하지 않은 것으로 관측되었다. 이에 따라 침수 상태를 제외한 다른 조건에서 SVM 기법의 정확도가 높게 나타났다. Otsu 기법이 침수 조건에서 SVM 기법보다 다소 높은 정확도를 보였지만, 정확도의 차이가 5% 미만임을 확인할 수 있었다(Otsu: 0.93, SVM: 0.90). SVM 기법이 Otsu 기법보다 침수 전, 침수 후의 조건에서 정확도 차이가 최대 15% 이상 발생하여 수체 및 침수탐지에 더 적합하게 나타났다(Otsu: 0.77, SVM: 0.92). 이러한 결과는 SVM 기법이 수체 및 침수탐지에서 효과적으로 활용될 수 있음을 시사하며, 미래의 수재해 탐지 시스템에 적용될 때 유용한 정보를 제공할 수 있을 것으로 기대된다.

사용자 니즈 기반의 챗봇 개발 프로세스: 디자인 사고방법론을 중심으로 (Development Process for User Needs-based Chatbot: Focusing on Design Thinking Methodology)

  • 김무성;서봉군;박도형
    • 지능정보연구
    • /
    • 제25권3호
    • /
    • pp.221-238
    • /
    • 2019
  • 최근, 기업 및 공공기관에서는 고객 상담과 응대 분야에 챗봇(Chatbot)서비스를 적극적으로 도입하고 있다. 챗봇 서비스의 도입은 기업이나 기관에게 있어서 인건비 절감 효과를 가져올 뿐만 아니라 고객과의 빠른 커뮤니케이션 효과를 기대할 수 있다. 데이터 분석 기술의 발전과 인공지능 기술의 고도화는 이런 챗봇 서비스의 성장을 견인하고 있다. 하지만 기술중심으로 개발된 챗봇은 사용자가 내재적으로 원하는 바와 괴리가 있을 수 있으므로, 챗봇이 단순히 기술의 영역이 아닌 사용자 경험의 영역에서 다루어질 필요가 있다. 본 연구는 사용자 경험 분야의 대표적 방법론인 디자인 사고 접근법을 챗봇 개발에 적용하여, 사용자 니즈 기반의 챗봇 개발 프로세스를 제안하고자 한다. 사용자 관찰을 통해 팩트(Fact) 수집을 시작으로, 인사이트(Insight)를 도출하고 기회영역(Opportunity)을 발굴하는 추상화의 과정을 수행한다. 이어서 사용자의 멘탈모델에 맞는 기능을 제공하고 원하는 정보를 구조화하는 구체화의 과정을 통해, 사용자의 니즈에 부합하는 챗봇을 개발할 수 있을 것으로 기대한다. 본 연구에서는 제안한 프로세스의 실효성을 확인하기 위하여 국내 화장품 시장을 대상으로 실제 구축 사례를 함께 제시한다. 본 연구는 챗봇 개발 프로세스에 사용자 경험을 접목한 점에서 이론적 시사점을 가지며, 기업이나 기관이 바로 적용 가능한 현실적인 방법을 제안한다는 면에서 실무적 시사점을 가진다.

환경요인을 이용한 다층 퍼셉트론 기반 온실 내 기온 및 상대습도 예측 (Prediction of Air Temperature and Relative Humidity in Greenhouse via a Multilayer Perceptron Using Environmental Factors)

  • 최하영;문태원;정대호;손정익
    • 생물환경조절학회지
    • /
    • 제28권2호
    • /
    • pp.95-103
    • /
    • 2019
  • 온도와 상대습도는 작물 재배에 있어서 중요한 요소로써, 수량과 품질의 증대를 위해서는 적절히 제어 되어야 한다. 그리고 정확한 환경 제어를 위해서는 환경이 어떻게 변화할지 예측할 필요가 있다. 본 연구의 목적은 현시점의 환경 데이터를 이용한 다층 퍼셉트론(multilayer perceptrons, MLP)을 기반으로 미래 시점의 기온 및 상대습도를 예측하는 것이다. MLP 학습에 필요한 데이터는 어윈 망고(Mangifera indica cv. Irwin)을 재배하는 8연동 온실($1,032m^2$)에서 2016년 10월 1일부터 2018년 2월 28일까지 10분 간격으로 수집되었다. MLP는 온실내부 환경 데이터, 온실 외 기상 데이터, 온실 내 장치의 설정 및 작동 값을 사용하여 10~120분 후 기온 및 상대습도를 예측하기 위한 학습을 진행하였다. 사계절이 뚜렷한 우리나라의 계절에 따른 예측 정확도를 분석하기 위해서 테스트 데이터로 계절별로 3일간의 데이터를 사용했다. MLP는 기온의 경우 은닉층이 4개, 노드 수가 128개일 때($R^2=0.988$), 상대습도는 은닉층 4개, 노드 수 64개에서 가장 높은 정확도를 보였다($R^2=0.990$). MLP 특성상 예측 시점이 멀어질수록 정확도는 감소하였지만, 계절에 따른 환경 변화에 무관하게 기온과 상대습도를 적절히 예측하였다. 그러나 온실 내 환경 제어 요소 중 분무 관수처럼 특이적인 데이터의 경우, 학습 데이터 수가 적기 때문에 예측 정확도가 낮았다. 본 연구에서는 MLP의 최적화를 통해서 기온 및 상대습도를 적절히 예측하였지만 실험에 사용된 온실에만 국한되었다. 따라서 보다 일반화를 위해서 다양한 장소의 온실 데이터 이용과 이에 따른 신경망 구조의 변형이 필요하다.

KB-BERT: 금융 특화 한국어 사전학습 언어모델과 그 응용 (KB-BERT: Training and Application of Korean Pre-trained Language Model in Financial Domain)

  • 김동규;이동욱;박장원;오성우;권성준;이인용;최동원
    • 지능정보연구
    • /
    • 제28권2호
    • /
    • pp.191-206
    • /
    • 2022
  • 대량의 말뭉치를 비지도 방식으로 학습하여 자연어 지식을 획득할 수 있는 사전학습 언어모델(Pre-trained Language Model)은 최근 자연어 처리 모델 개발에 있어 매우 일반적인 요소이다. 하지만, 여타 기계학습 방식의 성격과 동일하게 사전학습 언어모델 또한 학습 단계에 사용된 자연어 말뭉치의 특성으로부터 영향을 받으며, 이후 사전학습 언어모델이 실제 활용되는 응용단계 태스크(Downstream task)가 적용되는 도메인에 따라 최종 모델 성능에서 큰 차이를 보인다. 이와 같은 이유로, 법률, 의료 등 다양한 분야에서 사전학습 언어모델을 최적화된 방식으로 활용하기 위해 각 도메인에 특화된 사전학습 언어모델을 학습시킬 수 있는 방법론에 관한 연구가 매우 중요한 방향으로 대두되고 있다. 본 연구에서는 금융(Finance) 도메인에서 다양한 자연어 처리 기반 서비스 개발에 활용될 수 있는 금융 특화 사전학습 언어모델의 학습 과정 및 그 응용 방식에 대해 논한다. 금융 도메인 지식을 보유한 언어모델의 사전학습을 위해 경제 뉴스, 금융 상품 설명서 등으로 구성된 금융 특화 말뭉치가 사용되었으며, 학습된 언어 모델의 금융 지식을 정량적으로 평가하기 위해 토픽 분류, 감성 분류, 질의 응답의 세 종류 자연어 처리 데이터셋에서의 모델 성능을 측정하였다. 금융 도메인 말뭉치를 기반으로 사전 학습된 KB-BERT는 KoELECTRA, KLUE-RoBERTa 등 State-of-the-art 한국어 사전학습 언어 모델과 비교하여 일반적인 언어 지식을 요구하는 범용 벤치마크 데이터셋에서 견줄 만한 성능을 보였으며, 문제 해결에 있어 금융 관련 지식을 요구하는 금융 특화 데이터셋에서는 비교대상 모델을 뛰어넘는 성능을 보였다.

Deep Neural Network와 Convolutional Neural Network 모델을 이용한 산사태 취약성 매핑 (Landslide Susceptibility Mapping Using Deep Neural Network and Convolutional Neural Network)

  • 공성현;백원경;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1723-1735
    • /
    • 2022
  • 산사태는 가장 널리 퍼진 자연재해 중 하나로 인명 및 재산피해 뿐만 아니라 범 국가적 차원의 피해를 유발할 수 있기 때문에 효과적인 예측 및 예방이 필수적이다. 높은 정확도를 갖는 산사태 취약성도를 제작하려는 연구는 꾸준히 진행되고 있으며 다양한 모델이 산사태 취약성 분석에 적용되어 왔다. 빈도비 모델, logistic regression 모델, ensembles 모델, 인공신경망 등의 모델과 같이 픽셀기반 머신러닝 모델들이 주로 적용되어 왔고 최근 연구에서는 커널기반의 합성곱신경망 기법이 효과적이라는 사실과 함께 입력자료의 공간적 특성이 산사태 취약성 매핑의 정확도에 중요한 영향을 미친다는 사실이 알려졌다. 이러한 이유로 본 연구에서는 픽셀기반 deep neural network (DNN) 모델과 패치기반 convolutional neural network (CNN) 모델을 이용하여 산사태 취약성을 분석하는 것을 목적으로 한다. 연구지역은 산사태 발생 빈도가 높고 피해가 큰 인제, 강릉, 평창을 포함한 강원도 지역으로 설정하였고, 산사태 관련인자로는 경사도, 곡률, 하천강도지수, 지형습윤지수, 지형위치 지수, 임상경급, 임상영급, 암상, 토지이용, 유효토심, 토양모재, 선구조 밀도, 단층 밀도, 정규식생지수, 정규수분지수의 15개 데이터를 이용하였다. 데이터 전처리 과정을 통해 산사태관련인자를 공간데이터베이스로 구축하였으며 DNN, CNN 모델을 이용하여 산사태 취약성도를 작성하였다. 정량적인 지표를 통해 모델과 산사태 취약성도에 대한 검증을 진행하였으며 검증결과 패치기반의 CNN 모델에서 픽셀기반의 DNN 모델에 비해 3.4% 향상된 성능을 보였다. 본 연구의 결과는 산사태를 예측하는데 사용될 수 있고 토지 이용 정책 및 산사태 관리에 관한 정책 수립에 있어 기초자료 역할을 할 수 있을 것으로 기대된다.

인공지능 기반 금융서비스의 공정성 확보를 위한 체크리스트 제안: 인공지능 기반 개인신용평가를 중심으로 (A Checklist to Improve the Fairness in AI Financial Service: Focused on the AI-based Credit Scoring Service)

  • 김하영;허정윤;권호창
    • 지능정보연구
    • /
    • 제28권3호
    • /
    • pp.259-278
    • /
    • 2022
  • 인공지능(AI)의 확산과 함께 금융 분야에서도 상품추천, 고객 응대 자동화, 이상거래탐지, 신용 심사 등 다양한 인공지능 기반 서비스가 확대되고 있다. 하지만 데이터에 기반한 기계학습의 특성상 신뢰성과 관련된 문제 발생과 예상하지 못한 사회적 논란도 함께 발생하고 있다. 인공지능의 효용은 극대화하고 위험과 부작용은 최소화할 수 있는 신뢰할 수 있는 인공지능에 대한 필요성은 점점 더 커지고 있다. 이러한 배경에서 본 연구는 소비자의 금융 생활에 직접 영향을 끼치는 인공지능 기반 개인신용평가의 공정성 확보를 위한 체크리스트 제안을 통해 인공지능 기반 금융서비스에 대한 신뢰 향상에 기여하고자 하였다. 인공지능 신뢰성의 주요 핵심 요소인 투명성, 안전성, 책무성, 공정성 중 포용 금융의 관점에서 자동화된 알고리즘의 혜택을 사회적 차별 없이 모두가 누릴 수 있도록 공정성을 연구 대상으로 선정하였다. 문헌 연구를 통해 공정성이 영향을 끼치는 서비스 운용의 전 과정을 데이터, 알고리즘, 사용자의 세 개의 영역으로 구분하고, 12가지 하위 점검 항목과 항목별 세부 권고안으로 체크리스트를 구성하였다. 구성한 체크리스트는 이해관계자(금융 분야 종사자, 인공지능 분야 종사자, 일반 사용자)별 계층적 분석과정(AHP)을 통해 점검 항목에 대한 상대적 중요도 및 우선순위를 도출하였다. 이해관계자별 중요도에 따라 세 개의 그룹으로 분류하여 분석한 결과 학습데이터와 비금융정보 활용에 대한 타당성 검증 및 신규 유입 데이터 모니터링의 필요성 등 실용적 측면에서 구체적인 점검 사항을 파악하였고, 금융 소비자인 일반 사용자의 경우 결과에 대한 해석 오류 및 편향성 확인에 대한 중요도를 높게 평가한다는 것을 확인할 수 있었다. 본 연구의 결과가 더 공정한 인공지능 기반 금융서비스의 구축과 운영에 기여할 수 있기를 기대한다.