• 제목/요약/키워드: Machine Vision Application

검색결과 87건 처리시간 0.024초

Deep Reinforcement Learning in ROS-based autonomous robot navigation

  • Roland, Cubahiro;Choi, Donggyu;Jang, Jongwook
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.47-49
    • /
    • 2022
  • Robot navigation has seen a major improvement since the the rediscovery of the potential of Artificial Intelligence (AI) and the attention it has garnered in research circles. A notable achievement in the area was Deep Learning (DL) application in computer vision with outstanding daily life applications such as face-recognition, object detection, and more. However, robotics in general still depend on human inputs in certain areas such as localization, navigation, etc. In this paper, we propose a study case of robot navigation based on deep reinforcement technology. We look into the benefits of switching from traditional ROS-based navigation algorithms towards machine learning approaches and methods. We describe the state-of-the-art technology by introducing the concepts of Reinforcement Learning (RL), Deep Learning (DL) and DRL before before focusing on visual navigation based on DRL. The case study preludes further real life deployment in which mobile navigational agent learns to navigate unbeknownst areas.

  • PDF

배터리 리드탭 압흔 오류 검출의 딥러닝 기법 적용 (Application of deep learning technique for battery lead tab welding error detection)

  • 김윤호;김병만
    • 한국산업정보학회논문지
    • /
    • 제27권2호
    • /
    • pp.71-82
    • /
    • 2022
  • 자동차용 배터리 제조공정 가운데 하나인 Tab Welding 공정에서 생산된 제품의 샘플링 인장검사를 대체하기 위해 현재 비전검사기를 개발하여 사용하고 있다. 그러나, 비전검사는 검사 위치 오차 문제와 이를 개선하기 위해 발생하는 비용 문제를 가지고 있다. 이러한 문제점들을 해결하기 위해 최근 딥러닝 기술을 적용하는 사례들이 발생하고 있다. 본 논문도 그런 사례 중 하나로 기존 제품 검사에 딥러닝 기술 중 하나인 Faster R-CNN을 적용하여 그 유용성을 파악하고자 하였다. 기존 비전검사기를 통해 획득한 이미지들을 학습 데이터로 사용하여 Faster R-CNN ResNet101 V1 1024x1024 모델을 사용하여 학습하였다. 검사 기준인 미검률 0%, 과검률 10%의 기준으로 기존 비전검사와 Faster R-CNN 검사결과를 비교 분석하였다. 미검출률은 기존 비전검사에서 34.5%, Faster R-CNN 검사에서 0%였다. 과검출률은 기존 비전검사에서 100%, Faster R-CNN에서 6.9%였다. 결론적으로 자동차용 배터리 리드탭 암흔 오류 검출에 딥러닝 기술이 매우 유용함을 확인할 수 있었다.

iOS 기반 실시간 객체 분리 및 듀얼 카메라 합성 개발 (Development of Real-Time Objects Segmentation for Dual-Camera Synthesis in iOS)

  • 장유진;김지영;이주현;황준
    • 인터넷정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.37-43
    • /
    • 2021
  • 본 논문에서는 모바일 환경에서 실시간으로 전면과 후면 카메라의 객체를 인식하여 객체 픽셀의 영역을 분할하고 이미지 처리를 통해 합성하는 방법을 연구하였다. 이를 위해 Apple사의 iOS에서 제공하는 듀얼 카메라에 DeepLabV3 머신러닝 모델을 적용하여 객체를 분할하였다. 또한 이미지 합성 및 후처리를 위해 Apple사의 코어 이미지와 코어 그래픽 라이브러리를 이용하여 영역의 배경 제거 및 합성 방식을 제안하고 구현하였다. 또한, 이전 연구에 비해 CPU 사용량을 개선하였고 깊이와 DeepLabV3의 처리 속도를 비교하여 처리 결과에 영향을 주는 요소를 분석하였다. 마지막으로 이 두 방식을 활용한 카메라 애플리케이션을 개발하였다.

Interface of Tele-Task Operation for Automated Cultivation of Watermelon in Greenhouse

  • Kim, S.C.;Hwang, H.
    • Journal of Biosystems Engineering
    • /
    • 제28권6호
    • /
    • pp.511-516
    • /
    • 2003
  • 컴퓨터 시각 기술은 다양한 농작업 생력화에 있어 핵심적인 역할을 해왔다. 비록 컴퓨터 시각 기술이 광범위한 분야에 성공적으로 적용되고 있다고는 하지만 인간의 시각을 통한 인지 능력에 비하면 현재의 컴퓨터 시각 기술은 여전히 매우 미흡한 수준에 있다고 하겠다. 특히, 작업환경이 비구조적이고 가변적인 농작업 환경 하에서의 작업의 생력화는 이러한 기술적 문제를 극복하는 것이 작업의 성패를 좌우하게 된다. 본 논문에서는 원격작업 개념을 도입하여 작업자와 작업기계간의 호환적인 인터페이스를 구축하고 컴퓨터와 인간의 혼합형 의사결정 시스템을 구현하여 기존의 컴퓨터 시각 기술이 갖는 인지 처리 능력의 한계를 극복하는 시스템을 제안하였다. 시설재배에 요구되는 전정, 관수, 방제, 제초, 수확, 운반 등과 같은 다양한 작업들은 작업 대상체에 대한 인식을 바탕으로 수행된다. 특히 가변적인 자연 조명 환경 하에서 수박과 줄기 그리고 잎이 혼재되어 있는 재배현장의 영상으로부터 수박을 추출하여 그 위치 좌표를 산출하는 작업은 기술적으로 매우 어려운 작업이며 수박이 잎과 줄기로 덮혀 있는 경우 더욱 어려워진다. 제안한 개념을 구현하기 위하여 무선으로 수신되는 재배 현장의 수박 영상으로부터 수박을 인식하도록 하였다. 개발한 시스템은 작업자(농민), 컴퓨터 그리고 자동화 작업설비가 상대적으로 수월성을 갖는 기능을 중심으로 역할을 분담하도록 구축하였다 개발 시스템은 크게 무선원격 모니터링 및 작업제어 모듈, 무선원격 영상 획득 및 데이터 송수신 모듈, 작업자와 컴퓨터간의 인터페이스 모듈로 구성하였다 작업자는 RF 송수신 모듈을 통하여 무선으로 획득되어 터치 스크린에 보여지는 영상을 통하여 작업 지시를 하게 되고 이 작업 지시로부터 컴퓨터는 국부 영상처리 시퀀스를 통하여 수박을 추출하고 위치를 산출하게 된다. 개발한 인터페이스 시스템은 가변적이고 복잡한 작업 환경하에서 작업 대상체의 정보를 실시간으로 성공적으로 추출하였다. 제안한 원격작업 인터페이스 시스템은 다양한 생물생산 작업의 생력화를 촉진하는 중심적 역할을 할 것으로 기대된다.

다양한 조명하에서 실시간 눈 검출 및 추적 (Real-Time Eye Detection and Tracking Under Various Light Conditions)

  • 박호식;박동희;남기환;한준희;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2003년도 추계종합학술대회
    • /
    • pp.227-232
    • /
    • 2003
  • 본 논문에서는 다양한 조명하에서 실시간으로 눈을 검출하고 추적하는 새로운 방법을 제안하고자 한다. 기존의 능동적 적외선을 이용한 눈 검출 및 추적 방법은 외부의 조명에 매우 민감하게 반응하는 문제점을 가지고 있으므로, 본 논문에서는 적외선 조명을 이용한 밝은 동공 효과와 전형적인 외형을 기반으로 한 사물 인식 기술을 결합하여 외부 조명의 간섭으로 밝은 동공 효과가 나타나지 않는 경우에도 견실하게 눈을 검출하고 추적 할 수 있는 방법을 제안한다. 눈 검출과 추적을 위해 SVM과 평균 이동 추적방법을 사용하였고, 적외선 조명과 카메라를 포함한 영상 획득 장치를 구성하여 제안된 방법이 효율적으로 다양한 조명하에서 눈 검출과 추적을 할 수 있음을 보여 주었다.

  • PDF

얼굴 및 눈동자 움직임에 의한 시선 위치 추적 (Gaze Detection by Computing Facial and Eye Movement)

  • 박강령
    • 대한전자공학회논문지SP
    • /
    • 제41권2호
    • /
    • pp.79-88
    • /
    • 2004
  • 시선 위치 추적이란 현재 사용자가 응시하고 있는 위치를 컴퓨터 시각 인식 방법에 의해 파악하는 연구이다. 이러한 시선 위치 추적 기술은 많은 응용 분야를 가지고 있는데, 그 대표적인 예로는 양 손을 사용하지 못하는 심신 장애자를 위한 컴퓨터 인터페이스 및 3차원 시뮬레이터 프로그램에서 사용자의 시선 위치에 따른 화면 제어 등이 있다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적외선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움식임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면, 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 벡터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한, 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으면 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.8㎝의 최소 자승 에러성능을 나타냈다.

Classifying Indian Medicinal Leaf Species Using LCFN-BRNN Model

  • Kiruba, Raji I;Thyagharajan, K.K;Vignesh, T;Kalaiarasi, G
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권10호
    • /
    • pp.3708-3728
    • /
    • 2021
  • Indian herbal plants are used in agriculture and in the food, cosmetics, and pharmaceutical industries. Laboratory-based tests are routinely used to identify and classify similar herb species by analyzing their internal cell structures. In this paper, we have applied computer vision techniques to do the same. The original leaf image was preprocessed using the Chan-Vese active contour segmentation algorithm to efface the background from the image by setting the contraction bias as (v) -1 and smoothing factor (µ) as 0.5, and bringing the initial contour close to the image boundary. Thereafter the segmented grayscale image was fed to a leaky capacitance fired neuron model (LCFN), which differentiates between similar herbs by combining different groups of pixels in the leaf image. The LFCN's decay constant (f), decay constant (g) and threshold (h) parameters were empirically assigned as 0.7, 0.6 and h=18 to generate the 1D feature vector. The LCFN time sequence identified the internal leaf structure at different iterations. Our proposed framework was tested against newly collected herbal species of natural images, geometrically variant images in terms of size, orientation and position. The 1D sequence and shape features of aloe, betel, Indian borage, bittergourd, grape, insulin herb, guava, mango, nilavembu, nithiyakalyani, sweet basil and pomegranate were fed into the 5-fold Bayesian regularization neural network (BRNN), K-nearest neighbors (KNN), support vector machine (SVM), and ensemble classifier to obtain the highest classification accuracy of 91.19%.

Synthetic data augmentation for pixel-wise steel fatigue crack identification using fully convolutional networks

  • Zhai, Guanghao;Narazaki, Yasutaka;Wang, Shuo;Shajihan, Shaik Althaf V.;Spencer, Billie F. Jr.
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.237-250
    • /
    • 2022
  • Structural health monitoring (SHM) plays an important role in ensuring the safety and functionality of critical civil infrastructure. In recent years, numerous researchers have conducted studies to develop computer vision and machine learning techniques for SHM purposes, offering the potential to reduce the laborious nature and improve the effectiveness of field inspections. However, high-quality vision data from various types of damaged structures is relatively difficult to obtain, because of the rare occurrence of damaged structures. The lack of data is particularly acute for fatigue crack in steel bridge girder. As a result, the lack of data for training purposes is one of the main issues that hinders wider application of these powerful techniques for SHM. To address this problem, the use of synthetic data is proposed in this article to augment real-world datasets used for training neural networks that can identify fatigue cracks in steel structures. First, random textures representing the surface of steel structures with fatigue cracks are created and mapped onto a 3D graphics model. Subsequently, this model is used to generate synthetic images for various lighting conditions and camera angles. A fully convolutional network is then trained for two cases: (1) using only real-word data, and (2) using both synthetic and real-word data. By employing synthetic data augmentation in the training process, the crack identification performance of the neural network for the test dataset is seen to improve from 35% to 40% and 49% to 62% for intersection over union (IoU) and precision, respectively, demonstrating the efficacy of the proposed approach.

Robust Multi-Layer Hierarchical Model for Digit Character Recognition

  • Yang, Jie;Sun, Yadong;Zhang, Liangjun;Zhang, Qingnian
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권2호
    • /
    • pp.699-707
    • /
    • 2015
  • Although digit character recognition has got a significant improvement in recent years, it is still challenging to achieve satisfied result if the data contains an amount of distracting factors. This paper proposes a novel digit character recognition approach using a multi-layer hierarchical model, Hybrid Restricted Boltzmann Machines (HRBMs), which allows the learning architecture to be robust to background distracting factors. The insight behind the proposed model is that useful high-level features appear more frequently than distracting factors during learning, thus the high-level features can be decompose into hybrid hierarchical structures by using only small label information. In order to extract robust and compact features, a stochastic 0-1 layer is employed, which enables the model's hidden nodes to independently capture the useful character features during training. Experiments on the variations of Mixed National Institute of Standards and Technology (MNIST) dataset show that improvements of the multi-layer hierarchical model can be achieved by the proposed method. Finally, the paper shows the proposed technique which is used in a real-world application, where it is able to identify digit characters under various complex background images.

Application of Deep Learning to the Forecast of Flare Classification and Occurrence using SOHO MDI data

  • Park, Eunsu;Moon, Yong-Jae;Kim, Taeyoung
    • 천문학회보
    • /
    • 제42권2호
    • /
    • pp.60.2-61
    • /
    • 2017
  • A Convolutional Neural Network(CNN) is one of the well-known deep-learning methods in image processing and computer vision area. In this study, we apply CNN to two kinds of flare forecasting models: flare classification and occurrence. For this, we consider several pre-trained models (e.g., AlexNet, GoogLeNet, and ResNet) and customize them by changing several options such as the number of layers, activation function, and optimizer. Our inputs are the same number of SOHO)/MDI images for each flare class (None, C, M and X) at 00:00 UT from Jan 1996 to Dec 2010 (total 1600 images). Outputs are the results of daily flare forecasting for flare class and occurrence. We build, train, and test the models on TensorFlow, which is well-known machine learning software library developed by Google. Our major results from this study are as follows. First, most of the models have accuracies more than 0.7. Second, ResNet developed by Microsoft has the best accuracies : 0.77 for flare classification and 0.83 for flare occurrence. Third, the accuracies of these models vary greatly with changing parameters. We discuss several possibilities to improve the models.

  • PDF