• Title/Summary/Keyword: 초기 결함 탐지

Search Result 97, Processing Time 0.023 seconds

Preprocessing Technique for Malicious Comments Detection Considering the Form of Comments Used in the Online Community (온라인 커뮤니티에서 사용되는 댓글의 형태를 고려한 악플 탐지를 위한 전처리 기법)

  • Kim Hae Soo;Kim Mi Hui
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.12 no.3
    • /
    • pp.103-110
    • /
    • 2023
  • With the spread of the Internet, anonymous communities emerged along with the activation of communities for communication between people, and many users are doing harm to others, such as posting aggressive posts and leaving comments using anonymity. In the past, administrators directly checked posts and comments, then deleted and blocked them, but as the number of community users increased, they reached a level that managers could not continue to monitor. Initially, word filtering techniques were used to prevent malicious writing from being posted in a form that could not post or comment if a specific word was included, but they avoided filtering in a bypassed form, such as using similar words. As a way to solve this problem, deep learning was used to monitor posts posted by users in real-time, but recently, the community uses words that can only be understood by the community or from a human perspective, not from a general Korean word. There are various types and forms of characters, making it difficult to learn everything in the artificial intelligence model. Therefore, in this paper, we proposes a preprocessing technique in which each character of a sentence is imaged using a CNN model that learns the consonants, vowel and spacing images of Korean word and converts characters that can only be understood from a human perspective into characters predicted by the CNN model. As a result of the experiment, it was confirmed that the performance of the LSTM, BiLSTM and CNN-BiLSTM models increased by 3.2%, 3.3%, and 4.88%, respectively, through the proposed preprocessing technique.

Segmentation Foundation Model-based Automated Yard Management Algorithm (의미론적 분할 기반 모델을 이용한 조선소 사외 적치장 객체 자동 관리 기술)

  • Mingyu Jeong;Jeonghyun Noh;Janghyun Kim;Seongheon Ha;Taeseon Kang;Byounghak Lee;Kiryong Kang;Junhyeon Kim;Jinsun Park
    • Smart Media Journal
    • /
    • v.13 no.2
    • /
    • pp.52-61
    • /
    • 2024
  • In the shipyard, aerial images are acquired at regular intervals using Unmanned Aerial Vehicles (UAVs) for the management of external storage yards. These images are then investigated by humans to manage the status of the storage yards. This method requires a significant amount of time and manpower especially for large areas. In this paper, we propose an automated management technology based on a semantic segmentation foundation model to address these challenges and accurately assess the status of external storage yards. In addition, as there is insufficient publicly available dataset for external storage yards, we collected a small-scale dataset for external storage yards objects and equipment. Using this dataset, we fine-tune an object detector and extract initial object candidates. They are utilized as prompts for the Segment Anything Model(SAM) to obtain precise semantic segmentation results. Furthermore, to facilitate continuous storage yards dataset collection, we propose a training data generation pipeline using SAM. Our proposed method has achieved 4.00%p higher performance compared to those of previous semantic segmentation methods on average. Specifically, our method has achieved 5.08% higher performance than that of SegFormer.

A Study on Domestic Applicability for the Korean Cosmic-Ray Soil Moisture Observing System (한국형 코즈믹 레이 토양수분 관측 시스템을 위한 국내 적용성 연구)

  • Jaehwan Jeong;Seongkeun Cho;Seulchan Lee;Kiyoung Kim;Yongjun Lee;Chung Dae Lee;Sinjae Lee;Minha Choi
    • Korean Journal of Remote Sensing
    • /
    • v.39 no.2
    • /
    • pp.233-246
    • /
    • 2023
  • In terms of understanding the water cycle and efficient water resource management, the importance of soil moisture has been highlighted. However, in Korea, the lack of qualified in-situ soil moisture data results in very limited utility. Even if satellite-based data are applied, the absence of ground reference data makes objective evaluation and correction difficult. The cosmic-ray neutron probe (CRNP) can play a key role in producing data for satellite data calibration. The installation of CRNP is non-invasive, minimizing damage to the soil and vegetation environment, and has the advantage of having a spatial representative for the intermediate scale. These characteristics are advantageous to establish an observation network in Korea which has lots of mountainous areas with dense vegetation. Therefore, this study was conducted to evaluate the applicability of the CRNP soil moisture observatory in Korea as part of the establishment of a Korean cOsmic-ray Soil Moisture Observing System (KOSMOS). The CRNP observation station was installed with the Gunup-ri observation station, considering the ease of securing power and installation sites and the efficient use of other hydro-meteorological factors. In order to evaluate the CRNP soil moisture data, 12 additional in-situ soil moisture sensors were installed, and spatial representativeness was evaluated through a temporal stability analysis. The neutrons generated by CRNP were found to be about 1,087 counts per hour on average, which was lower than that of the Solmacheon observation station, indicating that the Hongcheon observation station has a more humid environment. Soil moisture was estimated through neutron correction and early-stage calibration of the observed neutron data. The CRNP soil moisture data showed a high correlation with r=0.82 and high accuracy with root mean square error=0.02 m3/m3 in validation with in-situ data, even in a short calibration period. It is expected that higher quality soil moisture data production with greater accuracy will be possible after recalibration with the accumulation of annual data reflecting seasonal patterns. These results, together with previous studies that verified the excellence of CRNP soil moisture data, suggest that high-quality soil moisture data can be produced when constructing KOSMOS.

True Orthoimage Generation from LiDAR Intensity Using Deep Learning (딥러닝에 의한 라이다 반사강도로부터 엄밀정사영상 생성)

  • Shin, Young Ha;Hyung, Sung Woong;Lee, Dong-Cheon
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.38 no.4
    • /
    • pp.363-373
    • /
    • 2020
  • During last decades numerous studies generating orthoimage have been carried out. Traditional methods require exterior orientation parameters of aerial images and precise 3D object modeling data and DTM (Digital Terrain Model) to detect and recover occlusion areas. Furthermore, it is challenging task to automate the complicated process. In this paper, we proposed a new concept of true orthoimage generation using DL (Deep Learning). DL is rapidly used in wide range of fields. In particular, GAN (Generative Adversarial Network) is one of the DL models for various tasks in imaging processing and computer vision. The generator tries to produce results similar to the real images, while discriminator judges fake and real images until the results are satisfied. Such mutually adversarial mechanism improves quality of the results. Experiments were performed using GAN-based Pix2Pix model by utilizing IR (Infrared) orthoimages, intensity from LiDAR data provided by the German Society for Photogrammetry, Remote Sensing and Geoinformation (DGPF) through the ISPRS (International Society for Photogrammetry and Remote Sensing). Two approaches were implemented: (1) One-step training with intensity data and high resolution orthoimages, (2) Recursive training with intensity data and color-coded low resolution intensity images for progressive enhancement of the results. Two methods provided similar quality based on FID (Fréchet Inception Distance) measures. However, if quality of the input data is close to the target image, better results could be obtained by increasing epoch. This paper is an early experimental study for feasibility of DL-based true orthoimage generation and further improvement would be necessary.

Sentiment Analysis of Movie Review Using Integrated CNN-LSTM Mode (CNN-LSTM 조합모델을 이용한 영화리뷰 감성분석)

  • Park, Ho-yeon;Kim, Kyoung-jae
    • Journal of Intelligence and Information Systems
    • /
    • v.25 no.4
    • /
    • pp.141-154
    • /
    • 2019
  • Rapid growth of internet technology and social media is progressing. Data mining technology has evolved to enable unstructured document representations in a variety of applications. Sentiment analysis is an important technology that can distinguish poor or high-quality content through text data of products, and it has proliferated during text mining. Sentiment analysis mainly analyzes people's opinions in text data by assigning predefined data categories as positive and negative. This has been studied in various directions in terms of accuracy from simple rule-based to dictionary-based approaches using predefined labels. In fact, sentiment analysis is one of the most active researches in natural language processing and is widely studied in text mining. When real online reviews aren't available for others, it's not only easy to openly collect information, but it also affects your business. In marketing, real-world information from customers is gathered on websites, not surveys. Depending on whether the website's posts are positive or negative, the customer response is reflected in the sales and tries to identify the information. However, many reviews on a website are not always good, and difficult to identify. The earlier studies in this research area used the reviews data of the Amazon.com shopping mal, but the research data used in the recent studies uses the data for stock market trends, blogs, news articles, weather forecasts, IMDB, and facebook etc. However, the lack of accuracy is recognized because sentiment calculations are changed according to the subject, paragraph, sentiment lexicon direction, and sentence strength. This study aims to classify the polarity analysis of sentiment analysis into positive and negative categories and increase the prediction accuracy of the polarity analysis using the pretrained IMDB review data set. First, the text classification algorithm related to sentiment analysis adopts the popular machine learning algorithms such as NB (naive bayes), SVM (support vector machines), XGboost, RF (random forests), and Gradient Boost as comparative models. Second, deep learning has demonstrated discriminative features that can extract complex features of data. Representative algorithms are CNN (convolution neural networks), RNN (recurrent neural networks), LSTM (long-short term memory). CNN can be used similarly to BoW when processing a sentence in vector format, but does not consider sequential data attributes. RNN can handle well in order because it takes into account the time information of the data, but there is a long-term dependency on memory. To solve the problem of long-term dependence, LSTM is used. For the comparison, CNN and LSTM were chosen as simple deep learning models. In addition to classical machine learning algorithms, CNN, LSTM, and the integrated models were analyzed. Although there are many parameters for the algorithms, we examined the relationship between numerical value and precision to find the optimal combination. And, we tried to figure out how the models work well for sentiment analysis and how these models work. This study proposes integrated CNN and LSTM algorithms to extract the positive and negative features of text analysis. The reasons for mixing these two algorithms are as follows. CNN can extract features for the classification automatically by applying convolution layer and massively parallel processing. LSTM is not capable of highly parallel processing. Like faucets, the LSTM has input, output, and forget gates that can be moved and controlled at a desired time. These gates have the advantage of placing memory blocks on hidden nodes. The memory block of the LSTM may not store all the data, but it can solve the CNN's long-term dependency problem. Furthermore, when LSTM is used in CNN's pooling layer, it has an end-to-end structure, so that spatial and temporal features can be designed simultaneously. In combination with CNN-LSTM, 90.33% accuracy was measured. This is slower than CNN, but faster than LSTM. The presented model was more accurate than other models. In addition, each word embedding layer can be improved when training the kernel step by step. CNN-LSTM can improve the weakness of each model, and there is an advantage of improving the learning by layer using the end-to-end structure of LSTM. Based on these reasons, this study tries to enhance the classification accuracy of movie reviews using the integrated CNN-LSTM model.

과학자(科學者)의 정보생산(情報生産) 계속성(繼續性)과 정보유통(情報流通)(2)

  • Garvey, W.D.
    • Journal of Information Management
    • /
    • v.6 no.5
    • /
    • pp.131-134
    • /
    • 1973
  • 본고(本稿)시리이즈의 제1보(第一報)에서 우리는 물리(物理), 사회과학(社會科學) 및 공학분야(工學分野)의 12,442명(名)의 과학자(科學者)와 기술자(技術者)에 대한 정보교환활동(情報交換活動)의 78례(例)에 있어서 일반과정(一般過程)과 몇 가지 결과(結果)를 기술(記述)한 바 있다. 4년반(年半) 이상(以上)의 기간(其間)($1966{\sim}1971$)에서 수행(遂行)된 이 연구(硏究)는 현재(現在)의 과학지식(科學知識)의 집성체(集成體)로 과학자(科學者)들이 연구(硏究)를 시작(始作)한 때부터 기록상(記錄上)으로 연구결과(硏究結果)가 취합(聚合)될 때까지 각종(各種) 정형(定形), 비정형(非定形) 매체(媒體)를 통한 유통정보(流通情報)의 전파(傳播)와 동화(同化)에 대한 포괄적(包括的)인 도식(圖式)으로 표시(表示)할 수 있도록 설정(設定)하고 또 시행(施行)되었다. 2보(二報), 3보(三報), 4보(四報)에서는 데이터 뱅크에 수집(蒐集) 및 축적(蓄積)된 데이터의 일반적(一般的)인 기술(記述)을 적시(摘示)하였다. (1) 과학(科學)과 기술(技術)의 정보유통(情報流通)에 있어서 국가적(國家的) 회합(會合)의 역할(役割)(Garvey; 4보(報)) 국가적(國家的) 회합(會合)은 투고(投稿)와 이로 인한 잡지중(雜誌中) 게재간(揭載間)의 상대적(相對的)인 오랜 기간(期間)동안 이러한 연구(硏究)가 공개매체(公開媒體)로 인하여 일시적(一時的)이나마 게재여부(揭載如否)의 불명료성(不明瞭性)을 초래(招來)하기 전(前)에 과학연구(科學硏究)의 초기전파(初期傳播)를 위하여 먼저 행한 주요(主要) 사례(事例)와 마지막의 비정형매체(非定形媒體)의 양자(兩者)를 항상 조직화(組織化)하여 주는 전체적(全體的)인 유통과정(流通過程)에 있어서 명확(明確)하고도 중요(重要)한 기능(機能)을 갖는다는 것을 알 수 있었다. (2) 잡지(雜誌)에 게재(揭載)된 정보(情報)의 생산(生産)과 관련(關聯)되는 정보(情報)의 전파과정(傳播過程)(Garvey; 1보(報)). 이 연구(硏究)를 위해서 우리는 정보유통과정(情報流通過程)을 따라 많은 노력(努力)을 하였는데, 여기서 유통과정(流通過程)의 인상적(印象的)인 면목(面目)은 특별(特別)히 연구(硏究)로부터의 정보(情報)는 잡지(雜誌)에 게재(揭載)되기까지 진정으로는 공개적(公開的)이 못된다는 것과 이러한 사실(事實)은 선진연구(先進硏究)가 자주 시대(時代)에 뒤떨어지게 된다는 것을 발견할 수 있었다. 경험(經驗)이 많은 정보(情報)의 수요자(需要者)는 이러한 폐물화(廢物化)에 매우 민감(敏感)하며 자기(自己) 연구(硏究)에 당면한, 진행중(進行中)이거나 최근(最近) 완성(完成)된 연구(硏究)에 대하여 정보(情報)를 얻기 위한 모든 수단(手段)을 발견(發見)코자 하였다. 예를 들어, 이들은 잡지(雜誌)에 보문(報文)을 발표(發表)하기 전(前)에 발생(發生)하는 정보전파과정(情報傳播過程)을 통하여 유루(遺漏)될지도 모르는 정보(情報)를 얻기 위하여 한 잡지(雜誌)나 2차자료(二次資料) 또는 전형적(典型的)으로 이용(利用)되는 다른 잡지류중(雜誌類中)에서 당해정보(當該情報)가 발견(發見)되기를 기다리지 않는다는 것이다. (3) "정보생산 과학자(情報生産 科學者)"에 의한 정보전파(情報傳播)의 계속성(繼續性)(이 연구(硏究) 시리이즈의 결과(結果)는 본고(本稿)의 주내용(主內容)으로 되어 있다.) 1968/1969년(年)부터 1970/1971년(年)의 이년기간(二年期間)동안 보문(報文)을 낸 과학자(科學者)(1968/1969년(年) 잡지중(雜誌中)에 "질이 높은" 보문(報文)을 발표(發表)한)의 약 2/3는 1968/1969의 보문(報文)과 동일(同一)한 대상영역(對象領域)의 연구(硏究)를 계속(繼續) 수행(遂行)하였다. 그래서 우리는 본연구(本硏究)에 오른 대부분(大部分)의 저자(著者)가 정상적(正常的)인 과학(科學), 즉 연구수행중(硏究遂行中) 의문(疑問)에 대한 완전(完全)한 해답(解答)을 얻게 되는 가장 중요(重要)한 추구(追求)로서 Kuhn(제5보(第5報))에 의하여 기술(技術)된 방법(방법)으로 과학(연구)(科學(硏究))을 실행(實行)하였음을 알았다. 최근(最近)에 연구(硏究)를 마치고 그 결과(結果)를 보문(報文)으로서 발표(發表)한 이들 과학자(科學者)들은 다음 단계(段階)로 해야 할 사항(事項)에 대하여 선행(先行)된 동일견해(同一見解)를 가진 다른 연구자(硏究자)들의 연구(硏究)와 대상(對象)에 밀접(密接)하게 관련(關聯)되고 있다. 이 계속성(繼續性)의 효과(效果)에 대한 지표(指標)는 보문(報文)과 동일(同一)한 영역(領域)에서 연구(硏究)를 계속(繼續)한 저자(著者)들의 약 3/4은 선행(先行) 보문(報文)에 기술(技術)된 연구결과(硏究結果)에서 직접적(直接的)으로 새로운 연구(硏究)가 유도(誘導)되었음을 보고(報告)한 사항(事項)에 반영(反映)되어 있다. 그렇지만 우리들의 데이터는 다음 영역(領域)으로 기대(期待)하지 않은 전환(轉換)을 일으킬 수도 있음을 보여주고 있다. 동일(同一) 대상(對象)에서 연구(硏究)를 속행(續行)하였던 저자(著者)들의 1/5 이상(以上)은 뒤에 새로운 영역(領域)으로 연구(硏究)를 전환(轉換)하였고 또한 이 영역(領域)에서 연구(硏究)를 계속(繼續)하였다. 연구영역(硏究領域)의 이러한 변화(變化)는 연구자(硏究者)의 일반(一般) 정보유통(情報流通) 패턴에 크게 변화(變化)를 보이지는 않는다. 즉 새로운 지적(知的) 문제(問題)에 대한 변화(變化)에서 야기(惹起)되는 패턴에 있어서 저자(著者)들은 오래된 문제(問題)의 방법(方法)과 기술(技術)을 새로운 문제(問題)로 맞추려 한다. 과학사(科學史)의 최근(最近) 해석(解釋)(Hanson: 6보(報))에서 예기(豫期)되었던 바와 같이 정상적(正常的)인 과학(科學)의 계속성(繼續性)은 항상 절대적(絶對的)이 아니며 "과학지식(科學知識)"의 첫발자욱은 예전 연구영역(硏究領域)의 대상(對象)에 관계(關係)없이 나타나는 다른 영역(領域)으로 내딛게 될지도 모른다. 우리들의 연구(硏究)에서 저자(著者)의 1/3은 동일(同一) 영역(領域)의 대상(對象)에서 속계적(續繼的)인 연구(硏究)를 수행(遂行)치 않고 새로운 영역(領域)으로 옮아갔다. 우리는 이와 같은 데이터를 (a) 저자(著者)가 각개과학자(各個科學者)의 활동(活動)을 통하여 집중적(集中的)인 과학적(科學的) 노력(努力)을 시험(試驗)할 때 각자(各自)의 연구(硏究)에 대한 많은 양(量)의 계속성(繼續性)이 어떤 진보중(進步中)의 과학분야(科學分野)에서도 나타난다는 것과 (b) 이 계속성(繼續性)은 과학(科學)에 대한 집중적(集中的) 진보(進步)의 필요적(必要的) 특질(特質)이라는 것을 의미한다. 또한 우리는 이 계속성(繼續性)과 관련(關聯)되는 유통문제(流通問題)라는 새로운 대상영역(對象領域)으로 전환(轉換)할 때 연구(硏究)의 각단계(各段階)의 진보(進步)와 새로운 목적(目的)으로 전환시(轉換時) 양자(兩者)가 다 필요(必要)로 하는 각개(各個) 과학자(科學者)의 정보수요(情報需要)를 위한 시간(時間) 소비(消費)라는 것을 탐지(探知)할 수 있다. 이러한 관찰(觀察)은 정보(情報)의 선택제공(選擇提供)시스팀이 현재(現在) 필요(必要)로 하는 정보(情報)의 만족(滿足)을 위하여는 효과적(效果的)으로 매우 융통성(融通性)을 띠어야 한다는 것을 암시(暗示)하는 것이다. 본고(本稿)의 시리이즈에 기술(記述)된 전정보유통(全情報流通) 과정(過程)의 재검토(再檢討) 결과(結果)는 과학자(科學者)들이 항상 그들의 요구(要求)를 조화(調和)시키는 신축성(伸縮性)있는 유통체제(流通體制)를 발전(發展)시켜 왔다는 것을 시사(示唆)해 주고 있다. 이 시스팀은 정보전파(情報傳播) 사항(事項)을 중심(中心)으로 이루어 지며 또한 이 사항(事項)의 대부분(大部分)의 참여자(參與者)는 자기자신(自己自身)이 과학정보(科學情報) 전파자(傳播者)라는 기본적(基本的)인 정보전파체제(情報傳播體制)인 것이다. 그러나 이 과정(過程)의 유통행위(流通行爲)에서 살펴본 바와 같이 우리는 대부분(大部分)의 정보전파자(情報傳播者)가 역시 정보(情報)의 동화자(同化者)-다시 말해서 과학정보(科學情報)의 생산자(生産者)는 정보(情報)의 이용자(利用者)라는 것을 알 수 있다. 이 연구(硏究)에서 전형적(典型的)인 과학자((科學者)는 과학정보(科學情報)의 생산(生産)이나 전파(傳播)의 양자(兩者)에 연속적(連續的)으로 관계(關係)하고 있음을 보았다. 만일(萬一) 연구자(硏究者)가 한 편(編)의 연구(硏究)를 완료(完了)한다면 이 연구자(硏究者)는 다음에 무엇을 할 것이냐 하는 관념(觀念)을 갖게 되고 따라서 "완료(完了)된" 연구(硏究)에 관한 정보(情報)를 이용(利用)하여 동시(同時)에 새로운 일을 시작(始作)하게 된다. 예를 들어, 한 과학자(科學者)가 동일(同一) 영역(領域)의 다른 동료연구자(同僚硏究者)에게 완전(完全)하며 이의(異議)에 방어(防禦)할 수 있는 보고서(報告書)를 제공(提供)할 수 있는 단계(段階)에 도달(到達)하였다면 우리는 이 과학자(科學者)가 정보유통과정(情報流通過程)에서 많은 역할(役割)을 해낼 수 있다는 것을 알 것이다. 즉 이 과학자(科學者)는 다른 과학자(科學者)들에게 최신(最新)의 과학적(科學的) 결과(結果)를 제공(提供)할 때 하나의 과학정보(科學情報) 전파자(傳播者)가 되며, 이 연구(硏究)의 의의(意義)와 타당성(妥當性)에 관한 논평(論評)이나 비평(批評)을 동료(同僚)로부터 구(求)하는 관점(觀點)에서 보면 이 과학자(科學者)는 하나의 정보탐색자(情報探索者)가 된다. 또한 장래(將來)의 이용(利用)을 위하여 증정(贈呈)이나 동화(同化)한 이 정보(情報)로부터 피이드백을 받아 드렸을 때의 범주(範疇)에서 보면 (잡지(雜誌)에 투고(投稿)하기 위하여 원고(原稿)를 작성(作成)하는 경우에 있어서와 같이) 과학자(科學者)는 하나의 정보이용자(情報利用者)가 되고 이러한 모든 가능성(可能性)에서 정보생산자(情報生産者)는 다음 정보생산(情報生産)에 이미 들어가 있다고 볼 수 있다(저자(著者)들의 2/3는 보문(報文)이 게재(揭載)되기 전(前)에 이미 새로운 연구(硏究)를 시작(始作)하였다). 과학자(科學者)가 자기연구(自己硏究)를 마치고 예비보고서(豫備報告書)를 만든 후(後) 자기연구(自己硏究)에 관한 정보(情報)의 전파(傳播)를 계속하게 되는데 이와 관계(關係)되는 일반적(一般的)인 패턴을 보면 소수(少數)의 동료(同僚)그룹에 출석(出席)하는 경우 (예로 지역집담회)(地域集談會))와 대중(大衆) 앞에서 행(行)하는 경우(예로 국가적 회합(國家的 會合)) 등이 있다. 그러는 동안에 다양성(多樣性) 있는 성문보고서(成文報告書)가 이루어진다. 그러나 과학자(科學者)들이 자기연구(自己硏究)를 위한 주정보전파목표(主情報傳播目標)는 과학잡지중(科學雜誌中)에 게재(揭載)되는 보문(報文)이라는 것이 명확(明確)한 사실(事實)인 것이다. 이러한 목표(目標)에 도달(到達)할 때까지의 각(各) 정보전파단계(情報傳播段階)에서 과학자(科學者)들은 목표달성(目標達成)을 위하여 청중(聽衆), 자기동화(自己同化)된 정보(情報) 및 이미 이용(利用)된 정보(情報)로부터 피이드백을 탐색(探索)하게 된다. 우리가 본고(本稿)의 시리이즈중(中)에 표현(表現)하려 했던 바와 같이 이러한 활동(活動)은 조사수임자(調査受任者)의 의견(意見)이 원고(原稿)에 반영(反映)되고 또 그 원고(原稿)가 잡지게재(雜誌揭載)를 위해 수리(受理)될 때까지 계속적(繼續的)으로 정보(情報)를 탐색(探索)하는 과학자(科學者)나 기타(其他)사람들에게 효과적(效果的)이었다. 원고(原稿)가 수리(受理)되면 그 원고(原稿)의 저자(著者)들은 그 보문(報文)의 주내용(主內容)에 대하여 적극적(積極的)인 정보전파자(情報傳播者)로서의 역할(役割)을 종종 중지(中止)하는 일이 있는데 이때에는 저자(著者)들의 역할(役割)이 변화(變化)하는 것을 볼 수 있었다. 즉 이 저자(著者)들은 일시적(一時的)이긴 하나 새로운 일을 착수(着手)하기 위하여 정보(情報)의 동화자(同化者)를 찾게 된다. 또한 전(前)에 행한 일에 대한 의견(意見)이나 비평(批評)이 새로운 일에 영향(影響)을 끼치게 된다. 동시(同時)에 새로운 과학정보생산(科學情報生産) 과정(過程)에 들어가게 되고 현재(現在) 진행중(進行中)이거나 최근(最近) 완료(完了)한 연구(硏究)에 대한 정보(情報)를 항상 찾게 된다. 활발(活潑)한 연구(硏究)를 하는 과학자(科學者)들에게는, 동화자(同化者)로서의 역할(役割)과 전파자(傳播者)로서의 역할(役割)을 분리(分離)시킨다는 것은 실제적(實際的)은 못된다. 즉 후자(後者)를 완성(完成)하기 위해서는 전자(前者)를 이용(利用)하게 된다는 것이다. 과학자(科學者)들은 한 단계(段階)에서 한 전파자(傳播者)로서의 역할(役割)이 뚜렷하나 다른 단계(段階)에서는 정보교환(情報交換)이 기본적(基本的)으로 정보동화(情報同化)에 직결(直結)되고 있는 것이다. 정보전파자(情報傳播者)와 정보동화자간(情報同化者間)의 상호관계(相互關係)(또는 정보생산자(情報生産者)와 정보이용자간(情報利用者間))는 과학(科學)에 있어서 하나의 필수양상(必修樣相)이다. 과학(科學)의 유통구조(流通構造)가 전파자(傳播者)(이용자(利用者)로서의 역할(役割)보다는)의 필요성(必要性)에서 볼 때 복잡(複雜)하고 다이나믹한 시스팀으로 구성(構成)된다는 사실(事實)은 과학(科學)의 발전과정(發展過程)에서 필연적(必然的)으로 나타난다. 이와 같은 사실(事實)은 과학정보(科學情報)의 전파요원(傳播要員)이 국가적 회합(國家的 會合)에서 자기연구(自己硏究)에 대한 정보(情報)의 전파기회(傳播機會)를 거절(拒絶)하고 따라서 전파정보(電波情報)를 판단(判斷)하고 선별(選別)하는 것을 감소(減少)시키며 결과적(結果的)으로 잡지(雜誌)나 단행본(單行本)에서 비평(批評)을 하고 추고(推敲)하는 것이 배제(排除)될 때는 유형적(有形的) 과학(科學)은 급속(急速)히 비과학성(非科學性)을 띠게 된다는 것을 Lysenko의 생애(生涯)에 대한 Medvedev의 기술중(記述中)[7]에 지적(指摘)한 것과 관계(關係)되고 있다.

  • PDF

Development of a complex failure prediction system using Hierarchical Attention Network (Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발)

  • Park, Youngchan;An, Sangjun;Kim, Mintae;Kim, Wooju
    • Journal of Intelligence and Information Systems
    • /
    • v.26 no.4
    • /
    • pp.127-148
    • /
    • 2020
  • The data center is a physical environment facility for accommodating computer systems and related components, and is an essential foundation technology for next-generation core industries such as big data, smart factories, wearables, and smart homes. In particular, with the growth of cloud computing, the proportional expansion of the data center infrastructure is inevitable. Monitoring the health of these data center facilities is a way to maintain and manage the system and prevent failure. If a failure occurs in some elements of the facility, it may affect not only the relevant equipment but also other connected equipment, and may cause enormous damage. In particular, IT facilities are irregular due to interdependence and it is difficult to know the cause. In the previous study predicting failure in data center, failure was predicted by looking at a single server as a single state without assuming that the devices were mixed. Therefore, in this study, data center failures were classified into failures occurring inside the server (Outage A) and failures occurring outside the server (Outage B), and focused on analyzing complex failures occurring within the server. Server external failures include power, cooling, user errors, etc. Since such failures can be prevented in the early stages of data center facility construction, various solutions are being developed. On the other hand, the cause of the failure occurring in the server is difficult to determine, and adequate prevention has not yet been achieved. In particular, this is the reason why server failures do not occur singularly, cause other server failures, or receive something that causes failures from other servers. In other words, while the existing studies assumed that it was a single server that did not affect the servers and analyzed the failure, in this study, the failure occurred on the assumption that it had an effect between servers. In order to define the complex failure situation in the data center, failure history data for each equipment existing in the data center was used. There are four major failures considered in this study: Network Node Down, Server Down, Windows Activation Services Down, and Database Management System Service Down. The failures that occur for each device are sorted in chronological order, and when a failure occurs in a specific equipment, if a failure occurs in a specific equipment within 5 minutes from the time of occurrence, it is defined that the failure occurs simultaneously. After configuring the sequence for the devices that have failed at the same time, 5 devices that frequently occur simultaneously within the configured sequence were selected, and the case where the selected devices failed at the same time was confirmed through visualization. Since the server resource information collected for failure analysis is in units of time series and has flow, we used Long Short-term Memory (LSTM), a deep learning algorithm that can predict the next state through the previous state. In addition, unlike a single server, the Hierarchical Attention Network deep learning model structure was used in consideration of the fact that the level of multiple failures for each server is different. This algorithm is a method of increasing the prediction accuracy by giving weight to the server as the impact on the failure increases. The study began with defining the type of failure and selecting the analysis target. In the first experiment, the same collected data was assumed as a single server state and a multiple server state, and compared and analyzed. The second experiment improved the prediction accuracy in the case of a complex server by optimizing each server threshold. In the first experiment, which assumed each of a single server and multiple servers, in the case of a single server, it was predicted that three of the five servers did not have a failure even though the actual failure occurred. However, assuming multiple servers, all five servers were predicted to have failed. As a result of the experiment, the hypothesis that there is an effect between servers is proven. As a result of this study, it was confirmed that the prediction performance was superior when the multiple servers were assumed than when the single server was assumed. In particular, applying the Hierarchical Attention Network algorithm, assuming that the effects of each server will be different, played a role in improving the analysis effect. In addition, by applying a different threshold for each server, the prediction accuracy could be improved. This study showed that failures that are difficult to determine the cause can be predicted through historical data, and a model that can predict failures occurring in servers in data centers is presented. It is expected that the occurrence of disability can be prevented in advance using the results of this study.