• 제목/요약/키워드: CNN model

검색결과 977건 처리시간 0.027초

헬멧 착용 여부 및 쓰러짐 사고 감지를 위한 AI 영상처리와 알람 시스템의 구현 (Implementation of an alarm system with AI image processing to detect whether a helmet is worn or not and a fall accident)

  • 조용화;이혁재
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.150-159
    • /
    • 2022
  • 본 논문은 실시간 영상 분석을 통해서 산업현장에서 활동하는 여러 근로자의 영상 객체를 추출해 내고, 추출된 이미지로 부터 개별 영상 분석을 통해 헬멧의 착용 여부와 낙상 사고 여부를 확인하는 방법을 구현한다. 근로자의 영상 객체를 탐지하기 위해서 딥러닝 기반 컴퓨터 비전 모델인 YOLO를 사용하였으며, 추출된 이미지를 이용하여 헬멧의 착용여부를 판단하기 위해 따로 5,000장의 다양한 헬멧 학습 데이터 이미지를 만들어서 사용하였다. 또한, 낙상사고 여부를 판단하기 위해서 Mediapipe의 Pose 실시간 신체추적 알고리즘을 사용하여 머리의 위치를 확인하고 움직이는 속도를 계산하여 쓰러짐 여부를 판단하였다. 결과에 신뢰성을 주기위한 방법으로 YOLO의 바운딩 박스의 크기를 구하여 객체의 자세를 유추하는 방법을 추가하고 구현하였다. 최종적으로 관리자에게 알림 서비스를 위하여 텔레그램 API Bot과 Firebase DB 서버를 구현하였다.

기계학습 기반 알츠하이머성 치매의 다중 분류에서 EEG-fNIRS 혼성화 기법 (An EEG-fNIRS Hybridization Technique in the Multi-class Classification of Alzheimer's Disease Facilitated by Machine Learning)

  • 호티키우칸;김인기;전영훈;송종인;곽정환
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.305-307
    • /
    • 2021
  • Alzheimer's Disease (AD) is a cognitive disorder characterized by memory impairment that can be assessed at early stages based on administering clinical tests. However, the AD pathophysiological mechanism is still poorly understood due to the difficulty of distinguishing different levels of AD severity, even using a variety of brain modalities. Therefore, in this study, we present a hybrid EEG-fNIRS modalities to compensate for each other's weaknesses with the help of Machine Learning (ML) techniques for classifying four subject groups, including healthy controls (HC) and three distinguishable groups of AD levels. A concurrent EEF-fNIRS setup was used to record the data from 41 subjects during Oddball and 1-back tasks. We employed both a traditional neural network (NN) and a CNN-LSTM hybrid model for fNIRS and EEG, respectively. The final prediction was then obtained by using majority voting of those models. Classification results indicated that the hybrid EEG-fNIRS feature set achieved a higher accuracy (71.4%) by combining their complementary properties, compared to using EEG (67.9%) or fNIRS alone (68.9%). These findings demonstrate the potential of an EEG-fNIRS hybridization technique coupled with ML-based approaches for further AD studies.

  • PDF

심층 학습을 통한 암세포 광학영상 식별기법 (Identification of Multiple Cancer Cell Lines from Microscopic Images via Deep Learning)

  • 박진형;최세운
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.374-376
    • /
    • 2021
  • 임상에서 암 관련 질병의 확진을 위해 영상장비를 이용한 기초 진단 이후 추가적인 방법으로 생체검사 등을 이용한 병리적 검사가 필수적이다. 이러한 생체검사를 진행하기 위해서는 전문지식을 가진 종양학자, 임상병리사 등의 도움과 최소한의 소요시간은 확진을 위해 반드시 필요하다. 최근 들어, 인공지능을 활용한 암세포의 자동분류가 가능한 시스템 구축에 관련된 연구가 활발하게 진행되고 있다. 하지만, 이전 연구들은 한정된 알고리즘을 기반으로 하여 세포의 종류와 정확도에 한계를 보인다. 본 연구에서 심층 학습의 일종인 합성곱 신경망을 통해 총 4가지의 암세포를 식별하는 방법을 제안한다. 세포 배양을 통해 얻은 광학영상을 OpenCV를 사용하여 세포의 위치 식별 및 이미지 분할과 같은 전처리 수행 후, EfficientNet을 통해 학습하였다. 모델은 EfficientNet을 기준으로 다양한 hyper parameter를 사용하고, InceptionV3을 학습하여 성능을 비교분석 하였다. 그 결과 96.8%의 높은 정확도로 세포를 분류하는 결과를 보였으며, 이러한 분석방법은 암의 확진에 도움이 될 것으로 기대한다.

  • PDF

시각장애인을 위한 시각 도움 서비스를 제공하는 인공지능 시스템 개발 (Development of artificial intelligent system for visual assistance to the Visually Handicapped)

  • 오창현;최광요;이호영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.1290-1293
    • /
    • 2021
  • 현재 시각장애인들의 일상생활에 있어 많은 불편함을 겪고 있어 시각장애인에게 도움이 되고자 실시간 객체인식을 하여 보행환경의 정보를 전달하는 안경을 만드는 프로젝트를 진행하였다. 핵심 기능에 해당하는 객체인식은 인공지능 모델 YOLOv4가 사용되었으며, 시각장애인의 입장에서 걸어 다닐 때 인식 되어야 하는 객체들을 선정하고, 이들을 대상으로 학습 데이터를 재구성하고 YOLOv4의 재학습을 진행하였다. 학습 결과 모든 객체들에 대한 정확도는 68%를 보였으나 시각 장애인이 걸어다닐 때 인식되어야 하는 필수객체(Person, Bus, Car, Traffic_light, Bicycle, Motorcycle)들의 인식률은 84%로 측정되었다. 향 후 진행될 학습에선 더욱 다양한 방법으로 학습데이터를 확보하고, YOLOv4가 아닌 darkflow를 이용해 다양한 parameter로 학습을 진행하여 다면적인 성능비교가 필요하다.

인공지능 기반 객체인식 기법에 관한 연구 (A Study on Object Recognition Technique based on Artificial Intelligence)

  • 양환석
    • 융합보안논문지
    • /
    • 제22권5호
    • /
    • pp.3-9
    • /
    • 2022
  • 최근 들어 4차산업 연관기술인 사이버물리시스템(CPS) 구축을 위해 물리 모델과 제어회로 시뮬레이션을 위한 가상 제어시스템 구축 작업이 다양한 산업 분야에서 요구가 점점 증가하고 있다. 전자 문서화 되지 않은 문서들에 대한 직접입력을 통한 변환은 시간과 비용이 많이 소모된다. 이를 위해 이미 출력된 대량의 도면을 인공지능을 이용한 객체 인식을 통해 디지털화 작업은 매우 중요하다고 할 수 있다. 본 논문에서는 도면내 객체를 정확하게 인식하고 이를 다양한 응용에 활용할 수 있도록 하기 위하여 도면내 객체의 특징을 분석하여 인공지능을 활용한 인식 기법을 제안하였다. 객체 인식의 성능을 높이기 위하여 객체별 인식 후 그 정보를 저장하는 중간 파일을 생성하게 하였다. 그리고 인식 결과를 도면에서 삭제하여 다음 인식 대상의 인식률을 향상시켰다. 그리고 그 인식 결과를 표준화 포맷 문서로 저장하여 이를 제어시스템의 다양한 분야에 활용할 수 있도록 하였다. 본 논문에서 제안한 기법의 우수한 성능은 위해 실험을 통해 확인할 수 있었다.

Correlation Extraction from KOSHA to enable the Development of Computer Vision based Risks Recognition System

  • Khan, Numan;Kim, Youjin;Lee, Doyeop;Tran, Si Van-Tien;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.87-95
    • /
    • 2020
  • Generally, occupational safety and particularly construction safety is an intricate phenomenon. Industry professionals have devoted vital attention to enforcing Occupational Safety and Health (OHS) from the last three decades to enhance safety management in construction. Despite the efforts of the safety professionals and government agencies, current safety management still relies on manual inspections which are infrequent, time-consuming and prone to error. Extensive research has been carried out to deal with high fatality rates confronting by the construction industry. Sensor systems, visualization-based technologies, and tracking techniques have been deployed by researchers in the last decade. Recently in the construction industry, computer vision has attracted significant attention worldwide. However, the literature revealed the narrow scope of the computer vision technology for safety management, hence, broad scope research for safety monitoring is desired to attain a complete automatic job site monitoring. With this regard, the development of a broader scope computer vision-based risk recognition system for correlation detection between the construction entities is inevitable. For this purpose, a detailed analysis has been conducted and related rules which depict the correlations (positive and negative) between the construction entities were extracted. Deep learning supported Mask R-CNN algorithm is applied to train the model. As proof of concept, a prototype is developed based on real scenarios. The proposed approach is expected to enhance the effectiveness of safety inspection and reduce the encountered burden on safety managers. It is anticipated that this approach may enable a reduction in injuries and fatalities by implementing the exact relevant safety rules and will contribute to enhance the overall safety management and monitoring performance.

  • PDF

고차원 매핑기법과 딥러닝 네트워크를 통한 정형데이터의 분류 (Classification of Tabular Data using High-Dimensional Mapping and Deep Learning Network)

  • 김경택;장원두
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.119-124
    • /
    • 2023
  • 최근 딥러닝은 다양한 분야에서 전통적인 기계학습에 비해 월등히 높은 성능을 보이고 있으며, 패턴인식을 위한 보편적인 방법으로 자리 잡아 가고 있다. 하지만, 이에 비해 정형데이터를 사용하는 분류 문제에서는 여전히 머신러닝 기법이 주류를 이루고 있다. 본 논문에서는 정형데이터를 고차원 텐서로 변환하는 네트워크 모듈을 제안하며, 이 모듈을 보편적인 딥러닝 네트워크와 함께 구성하여 정형데이터의 분류 문제에 적용하였다. 제안된 방법은 4종의 데이터셋을 활용하여 학습 및 검증되었으며, 제안된 방법은 90.22%의 평균 정확도를 달성하여, 최신 딥러닝 모델인 TabNet에 비해 2.55%p 높은 정확도를 보였다. 제안된 방법은 컴퓨터 비전 분야에서 높은 성능을 보이는 다양한 네트워크 구조를 정형데이터에 활용할 수 있다는 점에서 의미가 있다.

딥러닝을 활용한 알약인식 및 복용관리 시스템 (Systems for Pill Recognition and Medication Management using Deep Learning )

  • 김강희;김소현;정다함;이보경
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.9-16
    • /
    • 2024
  • 알약 구매 후 조제약 봉투나 포장지를 잃어버린 경우 약의 효능을 알기 어렵고 많은 사람들이 시중에서 판매하는 약을 구매하여 복용한 후 보관 시 용도를 구분해서 보관하지 않는 경우가 많다. 또한 알약 부작용에 대한 정보의 접근성이 낮아 약을 오남용하는 상황이 발생하기도 한다. 기존의 알약 정보를 검색하여 정보를 알려 주는 대부분의 서비스 및 어플리케이션들은 사용자가 알약의 상세정보를 직접 입력하거나 선택해야 하는 번거로움이 존재한다. 본 논문에서는 이러한 불편한 상황들은 개선하고 보다 나은 서비스를 제공하기 위해 약학정보원에서 제공하는 알약 22,000종의 사진에 대해 제형과 색상을 학습시킨 딥러닝 모델을 구축하였다. 구축된 정보를 활용하여 촬영된 사진으로 알약을 검색하고 알약 정보를 알려주며 사용자의 약 복용을 관리해주는 기능을 갖는 시스템을 개발하였다.

Image-based Soft Drink Type Classification and Dietary Assessment System Using Deep Convolutional Neural Network with Transfer Learning

  • Rubaiya Hafiz;Mohammad Reduanul Haque;Aniruddha Rakshit;Amina khatun;Mohammad Shorif Uddin
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.158-168
    • /
    • 2024
  • There is hardly any person in modern times who has not taken soft drinks instead of drinking water. The rate of people taking soft drinks being surprisingly high, researchers around the world have cautioned from time to time that these drinks lead to weight gain, raise the risk of non-communicable diseases and so on. Therefore, in this work an image-based tool is developed to monitor the nutritional information of soft drinks by using deep convolutional neural network with transfer learning. At first, visual saliency, mean shift segmentation, thresholding and noise reduction technique, collectively known as 'pre-processing' are adopted to extract the location of drinks region. After removing backgrounds and segment out only the desired area from image, we impose Discrete Wavelength Transform (DWT) based resolution enhancement technique is applied to improve the quality of image. After that, transfer learning model is employed for the classification of drinks. Finally, nutrition value of each drink is estimated using Bag-of-Feature (BoF) based classification and Euclidean distance-based ratio calculation technique. To achieve this, a dataset is built with ten most consumed soft drinks in Bangladesh. These images were collected from imageNet dataset as well as internet and proposed method confirms that it has the ability to detect and recognize different types of drinks with an accuracy of 98.51%.

드론 방제의 최적화를 위한 딥러닝 기반의 밀도맵 추정 (Density map estimation based on deep-learning for pest control drone optimization)

  • 성백겸;한웅철;유승화;이춘구;강영호;우현호;이헌석;이대현
    • 드라이브 ㆍ 컨트롤
    • /
    • 제21권2호
    • /
    • pp.53-64
    • /
    • 2024
  • Global population growth has resulted in an increased demand for food production. Simultaneously, aging rural communities have led to a decrease in the workforce, thereby increasing the demand for automation in agriculture. Drones are particularly useful for unmanned pest control fields. However, the current method of uniform spraying leads to environmental damage due to overuse of pesticides and drift by wind. To address this issue, it is necessary to enhance spraying performance through precise performance evaluation. Therefore, as a foundational study aimed at optimizing drone-based pest control technologies, this research evaluated water-sensitive paper (WSP) via density map estimation using convolutional neural networks (CNN) with a encoder-decoder structure. To achieve more accurate estimation, this study implemented multi-task learning, incorporating an additional classifier for image segmentation alongside the density map estimation classifier. The proposed model in this study resulted in a R-squared (R2) of 0.976 for coverage area in the evaluation data set, demonstrating satisfactory performance in evaluating WSP at various density levels. Further research is needed to improve the accuracy of spray result estimations and develop a real-time assessment technology in the field.