• 제목/요약/키워드: Network by/for AI

검색결과 403건 처리시간 0.029초

Multi-dimensional Contextual Conditions-driven Mutually Exclusive Learning for Explainable AI in Decision-Making

  • Hyun Jung Lee
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.7-21
    • /
    • 2024
  • There are various machine learning techniques such as Reinforcement Learning, Deep Learning, Neural Network Learning, and so on. In recent, Large Language Models (LLMs) are popularly used for Generative AI based on Reinforcement Learning. It makes decisions with the most optimal rewards through the fine tuning process in a particular situation. Unfortunately, LLMs can not provide any explanation for how they reach the goal because the training is based on learning of black-box AI. Reinforcement Learning as black-box AI is based on graph-evolving structure for deriving enhanced solution through adjustment by human feedback or reinforced data. In this research, for mutually exclusive decision-making, Mutually Exclusive Learning (MEL) is proposed to provide explanations of the chosen goals that are achieved by a decision on both ends with specified conditions. In MEL, decision-making process is based on the tree-based structure that can provide processes of pruning branches that are used as explanations of how to achieve the goals. The goal can be reached by trade-off among mutually exclusive alternatives according to the specific contextual conditions. Therefore, the tree-based structure is adopted to provide feasible solutions with the explanations based on the pruning branches. The sequence of pruning processes can be used to provide the explanations of the inferences and ways to reach the goals, as Explainable AI (XAI). The learning process is based on the pruning branches according to the multi-dimensional contextual conditions. To deep-dive the search, they are composed of time window to determine the temporal perspective, depth of phases for lookahead and decision criteria to prune branches. The goal depends on the policy of the pruning branches, which can be dynamically changed by configured situation with the specific multi-dimensional contextual conditions at a particular moment. The explanation is represented by the chosen episode among the decision alternatives according to configured situations. In this research, MEL adopts the tree-based learning model to provide explanation for the goal derived with specific conditions. Therefore, as an example of mutually exclusive problems, employment process is proposed to demonstrate the decision-making process of how to reach the goal and explanation by the pruning branches. Finally, further study is discussed to verify the effectiveness of MEL with experiments.

논문 키워드 분석을 통한 인공지능의 주요 이슈에 관한 고찰 : 사회과학 분야의 KCI 등재학술지를 중심으로 (A Study on Major Issues of Artificial Intelligence Using Keyword Analysis of Papers: Focusing on KCI Journals in the Field of Social Science)

  • 정도범;유화선;문희진
    • 한국콘텐츠학회논문지
    • /
    • 제22권7호
    • /
    • pp.1-9
    • /
    • 2022
  • 오늘날, 인공지능이 국가 경쟁력의 핵심 동력으로 부상하였으나, 사회적으로 예상치 못한 부작용도 초래하고 있다. 본 연구는 사회과학 분야의 KCI 등재학술지를 대상으로 인공지능에 관한 논문을 수집하여 사회적 측면의 주요 이슈를 고찰하고자 한다. 따라서 2016년부터 2020년까지 논문에 대한 키워드 분석을 수행하였다. 분석 결과, '로봇', '교육'에 대한 키워드가 가장 많이 나타났으며, 키워드 네트워크를 통해 상위 6개의 군집(이슈)을 도출하였다. 주요 이슈는 인공지능의 등장 배경이나 기본적인 개념, 인공지능 교육, 인공지능의 부작용, 인공지능 기반 창작물의 법적 이슈, 인공지능 제품/서비스의 이용의도, 인공지능 윤리 등을 제시할 수 있다. 본 연구 결과는 인공지능의 사회적 측면에 대한 논의를 확산하고, 국가 차원의 정책 방향을 모색하는데 활용할 수 있을 것이다.

유사물체 치환증강을 통한 기동장비 물체 인식 성능 향상 (Object Detection Accuracy Improvements of Mobility Equipments through Substitution Augmentation of Similar Objects)

  • 허지성;박지훈
    • 한국군사과학기술학회지
    • /
    • 제25권3호
    • /
    • pp.300-310
    • /
    • 2022
  • A vast amount of labeled data is required for deep neural network training. A typical strategy to improve the performance of a neural network given a training data set is to use data augmentation technique. The goal of this work is to offer a novel image augmentation method for improving object detection accuracy. An object in an image is removed, and a similar object from the training data set is placed in its area. An in-painting algorithm fills the space that is eliminated but not filled by a similar object. Our technique shows at most 2.32 percent improvements on mAP in our testing on a military vehicle dataset using the YOLOv4 object detector.

Applications and Challenges of Deep Learning and Non-Deep Learning Techniques in Video Compression Approaches

  • K. Siva Kumar;P. Bindhu Madhavi;K. Janaki
    • International Journal of Computer Science & Network Security
    • /
    • 제23권6호
    • /
    • pp.140-146
    • /
    • 2023
  • A detailed survey, applications and challenges of video encoding-decoding systems is discussed in this paper. A novel architecture has also been set aside for future work in the same direction. The literature reviews span the years 1960 to the present, highlighting the benchmark methods proposed by notable academics in the field of video compression. The timeline used to illustrate the review is divided into three sections. Classical methods, conventional heuristic methods, and current deep learning algorithms are all used for video compression in these categories. The milestone contributions are discussed for each category. The methods are summarized in various tables, along with their benefits and drawbacks. The summary also includes some comments regarding specific approaches. Existing studies' shortcomings are thoroughly described, allowing potential researchers to plot a course for future research. Finally, a closing note is made, as well as future work in the same direction.

인공지능(AI) 스피커에 대한 사회구성 차원의 발달과정 연구: 제품과 시기별 공진화 과정을 중심으로 (A study of Artificial Intelligence (AI) Speaker's Development Process in Terms of Social Constructivism: Focused on the Products and Periodic Co-revolution Process)

  • 차현주;권상희
    • 인터넷정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.109-135
    • /
    • 2021
  • 본 연구는 전통뉴스 보도에 나타난 인공지능(AI)스피커 뉴스 텍스트 분석을 통해 인공지능(AI) 스피커 발달과정을 분류하고 시기별 제품별 특성을 파악하였다. 또한 AI 스피커 사업자 제품별 뉴스 보도와 시기별 뉴스 보도간의 상관관계를 분석하였다. 분석에 사용된 이론적 배경은 뉴스의 프레임과 토픽프레임이다. 분석방법으로는 LDA 방식을 활용한 토픽모델링(Topic Modeling)과 의미연결망분석이 사용되었으며, 추가로 'UCINET'중 QAP분석을 적용하였다. 연구방법은 내용분석 방법으로 2014년부터 2019년까지 AI 스피커 관련 2,710건의 뉴스를 1차로 수집하였고, 2차적으로 Nodexl 알고리즘을 이용하여 토픽프레임을 분석하였다. 분석 결과 첫째, AI 스피커 사업자 유형별 토픽 프레임의 경향은 4개 사업자(통신사업자, 온라인 플랫폼, OS 사업자, IT디바이스 생산업자) 특성에 따라 다르게 나타났다. 구체적으로, 온라인 플랫폼 사업자(구글, 네이버, 아마존, 카카오)와 관련한 프레임은 AI 스피커를 '검색 또는 입력 디바이스'로 사용하는 프레임의 비중이 높았다. 반면 통신 사업자(SKT, KT)는 모회사의 주력 사업인 IPTV, 통신 사업의 '보조 디바이스' 관련한 프레임이 두드러지게 나타났다. 나아가 OS 사업자(MS, 애플)는 '제품의 의인화 및 음성 서비스' 프레임이 두드러지게 보였으며, IT 디바이스 생산업자(삼성)는 '사물인터넷(IoT) 종합지능시스템'과 관련한 프레임이 두드러지게 나타났다. 둘째, AI 스피커 시기별(연도별) 토픽 프레임의 경향은 1기(2014-2016년)에는 AI 기술 중심으로 발달하는 경향을 보였고, 2기(2017-2018년)에는 AI 기술과 이용자 간의 사회적 상호 작용과 관련되어 있었으며, 3기(2019년)에는 AI 기술 중심에서 이용자 중심으로 전환되는 경향을 나타냈다. QAP 분석 결과, AI 스피커 발달에서 사업자별과 시기별 뉴스 프레임이 미디어 담론의 결정요인에 의해 사회적으로 구성되는 것을 알 수 있었다. 본연구의 함의는 AI 스피커 진화는 사업자별, 발달시기별로 모회사 기업의 특성과 이용자 간의 상호작용으로 인한 공진화 과정이 나타냄을 발견할 수 있었다. 따라서 본 연구는 AI 스피커의 향후 전망을 예측하고 그에 따른 방향성을 제시하는 데 중요한 시사점을 제공한다.

임의배율 초해상도를 위한 하이브리드 도메인 고주파 집중 네트워크 (Hybrid-Domain High-Frequency Attention Network for Arbitrary Magnification Super-Resolution)

  • 윤준석;이성진;유석봉;한승회
    • 한국정보통신학회논문지
    • /
    • 제25권11호
    • /
    • pp.1477-1485
    • /
    • 2021
  • 최근 이미지 초해상도는 정수배율만 가능한 모델에만 집중적으로 연구되고 있다. 하지만 관심 객체 인식, 디스플레이 화질 개선 등 실제 초해상도 기술의 대표 적용 분야에서는 소수 배율을 포함하는 임의배율 확대 필요성이 대두되고 있다. 본 논문에서는 기존 정수배율 모델의 가중치를 활용하여 임의배율을 실행할 수 있는 모델을 제안한다. 이 모델은 정수배율에 의해 우수한 성능을 가진 초해상도 결과를 DCT 스펙트럼 도메인으로 변환하여 임의배율을 위한 공간을 확장한다. DCT 스펙트럼 도메인에 의한 확장으로 인해 발생하는 이미지의 고주파 정보 손실 문제를 줄이기 위해 고주파 스펙트럼 정보를 적절히 복원할 수 있는 모델인 고주파 집중 네트워크를 제안한다. 제안된 네트워크는 고주파 정보를 제대로 생성하기 위해서 RGB 채널간의 상관관계를 학습하는 레이어인 channel attention을 활용하고, 잔차 학습 구조를 통해 모델을 깊게 만들어 성능을 향상시켰다.

Evaluation of a multi-stage convolutional neural network-based fully automated landmark identification system using cone-beam computed tomography-synthesized posteroanterior cephalometric images

  • Kim, Min-Jung;Liu, Yi;Oh, Song Hee;Ahn, Hyo-Won;Kim, Seong-Hun;Nelson, Gerald
    • 대한치과교정학회지
    • /
    • 제51권2호
    • /
    • pp.77-85
    • /
    • 2021
  • Objective: To evaluate the accuracy of a multi-stage convolutional neural network (CNN) model-based automated identification system for posteroanterior (PA) cephalometric landmarks. Methods: The multi-stage CNN model was implemented with a personal computer. A total of 430 PA-cephalograms synthesized from cone-beam computed tomography scans (CBCT-PA) were selected as samples. Twenty-three landmarks used for Tweemac analysis were manually identified on all CBCT-PA images by a single examiner. Intra-examiner reproducibility was confirmed by repeating the identification on 85 randomly selected images, which were subsequently set as test data, with a two-week interval before training. For initial learning stage of the multi-stage CNN model, the data from 345 of 430 CBCT-PA images were used, after which the multi-stage CNN model was tested with previous 85 images. The first manual identification on these 85 images was set as a truth ground. The mean radial error (MRE) and successful detection rate (SDR) were calculated to evaluate the errors in manual identification and artificial intelligence (AI) prediction. Results: The AI showed an average MRE of 2.23 ± 2.02 mm with an SDR of 60.88% for errors of 2 mm or lower. However, in a comparison of the repetitive task, the AI predicted landmarks at the same position, while the MRE for the repeated manual identification was 1.31 ± 0.94 mm. Conclusions: Automated identification for CBCT-synthesized PA cephalometric landmarks did not sufficiently achieve the clinically favorable error range of less than 2 mm. However, AI landmark identification on PA cephalograms showed better consistency than manual identification.

데이터 증강 기반 회귀분석을 이용한 N치 예측 (A Prediction of N-value Using Regression Analysis Based on Data Augmentation)

  • 김광명;박형준;이재범;박찬진
    • 지질공학
    • /
    • 제32권2호
    • /
    • pp.221-239
    • /
    • 2022
  • 플랜트, 토목 및 건축 사업에서 말뚝 설계 시 어려움을 겪는 주된 요인은 지반 특성의 불확실성이다. 특히 표준관입시험을 통해 구한 N치가 설계 시 주요 입력값이나 짧은 입찰기간과 광범위한 구역에서 다수의 현장시험을 실시하는 것은 실제적으로 어려운 상황이다. 본 연구에서는 인공지능(AI)을 가지고 회귀분석을 적용하여 N치를 예측하는 연구를 수행하였으며, 최소한의 시추자료를 학습시킨 후 표준관입시험을 실시하지 못한 곳에서 N치를 예측하는데 그 목적이 있다. AI의 학습 성능을 높이기 위해서는 빅 데이터가 중요하며, 금회 연구 시 부족한 시추자료를 빅 데이터화 하는데 '원형증강법'을 적용하여 시추반경 2 m까지 가상 N치를 생성시키는 작업을 선행하였다. AI 모델 중 인공신경망, 의사결정 나무, 오토 머신러닝을 각각 적용하였으며 이 중 최적의 모델을 선택하였다. 최적의 모델을 선택하는 방법은 세 가지의 예측된 AI 모델 중 최소 오차값을 가지는 것이다. 이를 위해 폴란드, 인도네시아, 말레이시아에서 수행한 6개 프로젝트를 대상으로 표준관입시험의 실측N치와 AI의 예측N치를 비교하여 타당성 여부를 연구하였고, 연구 결과 AI 예측값에 대한 신뢰도가 높은 것으로 분석되었다. AI 예측값을 가지고 미시추 구간에서 지반특성을 파악 할 수 있었으며 3차원 N치 분포도를 사용하면 최적의 구조물 배치가 가능함을 확인하였다.

Stroke Disease Identification System by using Machine Learning Algorithm

  • K.Veena Kumari ;K. Siva Kumar ;M.Sreelatha
    • International Journal of Computer Science & Network Security
    • /
    • 제23권11호
    • /
    • pp.183-189
    • /
    • 2023
  • A stroke is a medical disease where a blood vessel in the brain ruptures, causes damage to the brain. If the flow of blood and different nutrients to the brain is intermittent, symptoms may occur. Stroke is other reason for loss of life and widespread disorder. The prevalence of stroke is high in growing countries, with ischemic stroke being the high usual category. Many of the forewarning signs of stroke can be recognized the seriousness of a stroke can be reduced. Most of the earlier stroke detections and prediction models uses image examination tools like CT (Computed Tomography) scan or MRI (Magnetic Resonance Imaging) which are costly and difficult to use for actual-time recognition. Machine learning (ML) is a part of artificial intelligence (AI) that makes software applications to gain the exact accuracy to predict the end results not having to be directly involved to get the work done. In recent times ML algorithms have gained lot of attention due to their accurate results in medical fields. Hence in this work, Stroke disease identification system by using Machine Learning algorithm is presented. The ML algorithm used in this work is Artificial Neural Network (ANN). The result analysis of presented ML algorithm is compared with different ML algorithms. The performance of the presented approach is compared to find the better algorithm for stroke identification.

인공지능 프로세서 기술 동향 (AI Processor Technology Trends)

  • 권영수
    • 전자통신동향분석
    • /
    • 제33권5호
    • /
    • pp.121-134
    • /
    • 2018
  • The Von Neumann based architecture of the modern computer has dominated the computing industry for the past 50 years, sparking the digital revolution and propelling us into today's information age. Recent research focus and market trends have shown significant effort toward the advancement and application of artificial intelligence technologies. Although artificial intelligence has been studied for decades since the Turing machine was first introduced, the field has recently emerged into the spotlight thanks to remarkable milestones such as AlexNet-CNN and Alpha-Go, whose neural-network based deep learning methods have achieved a ground-breaking performance superior to existing recognition, classification, and decision algorithms. Unprecedented results in a wide variety of applications (drones, autonomous driving, robots, stock markets, computer vision, voice, and so on) have signaled the beginning of a golden age for artificial intelligence after 40 years of relative dormancy. Algorithmic research continues to progress at a breath-taking pace as evidenced by the rate of new neural networks being announced. However, traditional Von Neumann based architectures have proven to be inadequate in terms of computation power, and inherently inefficient in their processing of vastly parallel computations, which is a characteristic of deep neural networks. Consequently, global conglomerates such as Intel, Huawei, and Google, as well as large domestic corporations and fabless companies are developing dedicated semiconductor chips customized for artificial intelligence computations. The AI Processor Research Laboratory at ETRI is focusing on the research and development of super low-power AI processor chips. In this article, we present the current trends in computation platform, parallel processing, AI processor, and super-threaded AI processor research being conducted at ETRI.