• 제목/요약/키워드: human-computer interface

검색결과 506건 처리시간 0.029초

중소기업환경에서 적용 가능한 IEC 62443 기반의 개발 보안 생애주기 프로세스 적용 방안 연구 (A Study on Application Methodology of SPDL Based on IEC 62443 Applicable to SME Environment)

  • 진정하;박상선;김준태;한근희
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권6호
    • /
    • pp.193-204
    • /
    • 2022
  • SME(small and medium-sized enterprise) 환경의 스마트제조 환경에서는 실제 제조라인에서 동작하는 센서(Sensor) 및 액추에이터(Actuator)와 이를 관리하는 PLC(Programmable Logic Controller), 더불어 그러한 PLC를 제어 및 관리하는 HMI(Human-Machine Interface), 그리고 다시 PLC와 HMI를 관리하는 OT(Operational Technology)서버로 구성되어 있으며, 제어자동화를 담당하는 PLC 및 HMI는 공장운영을 위한 응용시스템인 OT서버 및 현장 자동화를 위한 로봇, 생산설비와의 직접적인 연결을 수행하고 있어서 스마트제조 환경에서 보안 기술의 개발이 중점적으로 필요한 영역이다. 하지만, SME 환경의 스마트제조에서는 과거의 폐쇄 환경에서 동작하던 시스템으로 구성되어 있는 경우가 상당하여 인터넷을 통해 외부와 연동되어 동작하게 되는 현재의 환경에서는 보안에 취약한 부분이 존재한다. 이러한 SME 환경의 스마트제조 보안 내재화를 이루기 위해서는, 스마트제조 SW 및 HW 개발 단계에서 IEC 62443-4-1 Secure Product Development Lifecycle에 따른 프로세스 정립 및 IEC 62443-4-2 Component 보안 요구사항과 IEC 62443-3-3 System 보안 요구사항에 적합한 개발 방법론의 도입이 필요하다. 따라서, 본 논문에서는 SME 환경에서의 스마트제조에 보안 내재화를 제공하기 위한 IEC 62443 기반의 개발 보안 생애주기 프로세스에 대한 적용 방안을 제안한다.

모니터 생산업체에서의 최종 모니터 화면검사 시스템의 개발 (A Development of Monitor Screen Checking System for Monitor Manufacturing Firm)

  • 조영창;윤정오;최병진;정종혁;강상욱;오주환
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2000년도 춘계학술대회논문집
    • /
    • pp.107-111
    • /
    • 2000
  • 현재 많은 모니터 생산업체의 모니터 최종 품질검사에서는 자동화가 미흡한 실정이며, 검사방식이나 검사기준 등이 사람의 시각을 바탕으로 하고 있기 때문에 생산효율 및 생산품질 향상을 위해 검사기준의 일률성이나 검사의 정확성을 위한 검사 시스템이 요구되고 있다. 최근 컴퓨터 시스템의 급속한 발전과 이에 적용할 수 있고 비교적 저렴한 비젼 시스템 구성요소들의 성능이 향상됨에 따라 저가인 검사 시스템의 구성이 용이해지고 또한, 이러한 시스템 상에서 구현할 수 있는 새로운 알고리듬들이 많이 개발되고 있다. 본 연구에서는 저가이면서, 고속이고, 현장에 쉽게 적응할 수 있고 현실적으로 자본력이 튼튼하지 않는 업체에서도 쉽게 도입하여 사용할 수 있는 모니터 검사장비 시스템을 개발한다. 본 검사 시스템은 컴퓨터 비젼 기술을 바탕으로 하고 있으며, GUI 환경을 이용한 편리한 사용자 인터페이스와 모니터의 각종 품질특성 즉, 모니터 화면의 centering, yoke rotation, pincushion, 그리고 모니터 화면의 사이징 등에 대한 검사기능을 내장하고 있다. 본 연구에서 개발된 모니터 검사 시스템은 모니터 최종 검사공정에서 사용될 수 있으며, 이로 인해 생산효율의 증대 및 설비투자와 장비 개발비용 절감에 대한 파급효과가 기대된다.

  • PDF

의료용 훈련을 위한 가상현실에 대한 연구 (Virtual Environments for Medical Training: Soft tissue modeling)

  • 김정
    • 대한기계학회:학술대회논문집
    • /
    • 대한기계학회 2007년도 춘계학술대회A
    • /
    • pp.372-377
    • /
    • 2007
  • For more than 2,500 years, surgical teaching has been based on the so called "see one, do one, teach one" paradigm, in which the surgical trainee learns by operating on patients under close supervision of peers and superiors. However, higher demands on the quality of patient care and rising malpractice costs have made it increasingly risky to train on patients. Minimally invasive surgery, in particular, has made it more difficult for an instructor to demonstrate the required manual skills. It has been recognized that, similar to flight simulators for pilots, virtual reality (VR) based surgical simulators promise a safer and more comprehensive way to train manual skills of medical personnel in general and surgeons in particular. One of the major challenges in the development of VR-based surgical trainers is the real-time and realistic simulation of interactions between surgical instruments and biological tissues. It involves multi-disciplinary research areas including soft tissue mechanical behavior, tool-tissue contact mechanics, computer haptics, computer graphics and robotics integrated into VR-based training systems. The research described in this paper addresses the problem of characterizing soft tissue properties for medical virtual environments. A system to measure in vivo mechanical properties of soft tissues was designed, and eleven sets of animal experiments were performed to measure in vivo and in vitro biomechanical properties of porcine intra-abdominal organs. Viscoelastic tissue parameters were then extracted by matching finite element model predictions with the empirical data. Finally, the tissue parameters were combined with geometric organ models segmented from the Visible Human Dataset and integrated into a minimally invasive surgical simulation system consisting of haptic interface devices and a graphic display.

  • PDF

Educational Framework for Interactive Product Prototyping

  • Nam Tek-Jin
    • 디자인학연구
    • /
    • 제19권3호
    • /
    • pp.93-104
    • /
    • 2006
  • When the design profession started, design targets were mainly static hardware centered products. Due to the development of network and digital technologies, new products with dynamic and software-hardware hybrid interactive characteristics have become one of the main design targets. To accomplish the new projects, designers are required to learn new methods, tools and theories in addition to the traditional design expertise of visual language. One of the most important tools for the change is effective and rapid prototyping. There have been few researches on educational framework for interactive product or system prototyping to date. This paper presents a new model of educational contents and methods for interactive digital product prototyping, and it's application in a design curricula. The new course contents, integrated with related topics such as physical computing and tangible user interface, include microprocessor programming, digital analogue input and output, multimedia authoring and programming language, sensors, communication with other external devices, computer vision, and movement control using motors. The final project of the course was accomplished by integrating all the exercises. Our educational experience showed that design students with little engineering background could learn various interactive digital technologies and its' implementation method in one semester course. At the end of the course, most of the students were able to construct prototypes that illustrate interactive digital product concepts. It was found that training for logical and analytical thinking is necessary in design education. The paper highlights the emerging contents in design education to cope with the new design paradigm. It also suggests an alterative to reflect the new requirements focused on interactive product or system design projects. The tools and methods suggested can also be beneficial to students, educators, and designers working in digital industries.

  • PDF

A New Training System for Improving Postural Balance Using a Tilting Bed

  • Yu, Chang-Ho;Kwon, Tae-Kyu;Ryu, Mun-Ho;Kim, Nam-Gyun
    • 대한의용생체공학회:의공학회지
    • /
    • 제28권1호
    • /
    • pp.117-126
    • /
    • 2007
  • In this paper, we propose an early rehabilitation training system for the improvement of postural balance with multi-modality on a tilting bed. The integration of the visual, somatosensory and vestibular functions is significant to for maintaining the postural control of the human body. However, conventional rehabilitation systems do not provide multi-modality to trainees. We analyzed the characterization of postural control at different tilt angles of an early rehabilitation training system, which consists of a tilting bed, a visual feedback, a computer interface, a computer, and a force plate. The software that we developed for the system consists of the training programs and the analysis programs. To evaluate the characterization of postural control, we conducted the first evaluation before the beginning of the training. In the following four weeks, 12 healthy young and 5 healthy elderly subjects were trained to improve postural control using the training programs with the tilting bed. After four weeks of training, we conducted the second evaluation. The analysis programs assess (center of pressure) COP moving time, COP maintaining time, and mean absolute deviation of the trace before and after training at different tilt angles on the bed. After 4 weeks, the COP moving time was reduced, the COP maintaining time was lengthened, and the mean absolute deviation of the trace was lowered through the repeated use of vertical, horizontal, dynamic circle movement training programs. These results show that this system improves postural balance and could be applied to clinical use as an effective training system.

기계 장치와의 상호작용을 위한 실시간 저비용 손동작 제어 시스템 (A Real Time Low-Cost Hand Gesture Control System for Interaction with Mechanical Device)

  • 황태훈;김진헌
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1423-1429
    • /
    • 2019
  • 최근에, 효율적인 상호작용을 지원하는 시스템 인 휴먼 머신 인터페이스(HMI)가 인기를 끌고있다. 본 논문에서는 차량 상호작용방법 중 하나로 새로운 실시간 저비용 손동작 제어 시스템을 제안한다. 계산 시간을 줄이기 위해 RGB 카메라를 사용하여 손 영역을 감지할 때 많은 계산이 필요하므로 TOF (Time-of-Flight) 카메라를 사용하여 깊이 정보를 취득한다. 또한, 푸리에 기술자를 사용하여 학습 모델을 줄였다. 푸리에 디스크립터는 전체 이미지에서 적은 수의 포인트만 사용하므로 학습 모델을 소형화 할 수 있다. 제안 된 기법의 성능을 평가하기 위해 데스크탑과 라즈베리 pi 2의 속도를 비교했다. 실험 결과에 따르면 소형 임베디드와 데스크탑의 성능 차이는 크지 않다. 제스처 인식 실험에서 95.16 %의 인식률이 확인되었다.

컴퓨터 원용 결함진단을 위한 그래픽 솔루션 개발에 관한 연구 (Development of Graphical Solution for Computer-Assisted Fault Diagnosis: Preliminary Study)

  • 윤한빈;윤승만;한종철;조민국;임창휘;허성근;손철순;김성식;이석희;이석;김호경
    • 비파괴검사학회지
    • /
    • 제29권1호
    • /
    • pp.36-42
    • /
    • 2009
  • 역공학의 한 방법으로 엑스선 전산 단층촬영 장치에서 획득한 삼차원 데이터를 CAD(computeraided design) 데이터로 변환하여 쾌속조형 모델을 제작할 수 있고, 또한 삼차원 가시화를 통해 피검사체의 오차를 확인하고 분석할 수 있는 알고리즘들에 대한 연구를 수행하였다. 연구 결과를 바탕으로 GUI(graphical user interface) 기반의 소프트웨어를 개발하였다. 개발한 소프트웨어의 검증을 위하여 산업 및 의료용 샘플들에 대한 전산 단층촬영 스캐닝을 수행하고 CAD 데이터 변환 및 컴퓨터 원용 결함진단 시뮬레이션을 수행하였다. 이를 통해 컴퓨터 원용 결함진단의 산업 및 의료분야 적용 가능성을 확인하였다.

동적 윤곽선 모델을 이용한 PC 카메라 영상에서의 얼굴 윤곽선 추출 (Facial Contour Extraction in PC Camera Images using Active Contour Models)

  • 김영원;전병환
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2005년도 추계 종합학술대회 논문집
    • /
    • pp.633-638
    • /
    • 2005
  • 얼굴 추출은 휴먼 인터페이스와 생체 인식 및 보안을 위해 매우 중요한 분야이다. 본 논문에서는 동영상에서 얼굴의 윤곽선을 추출하기 위해, DCM(Dilation of Color and Motion)필터와 동적 윤곽선 모델(Active Contour Model) 적용한다. 먼저, 본 논문에서 제안된 DCM 필터는 모폴로지의 팽창 연산이 적용된 얼굴 색상영상과 차영상을 결합하고 이를 다시 팽창한 것으로 동영상에서 복잡한 배경을 제거하고 얼굴 영역을 검출하기 위해 사용된다. 동적 윤곽선 모델은 초기 곡선에 영향을 많이 받으므로, 얼굴과 눈, 입의 기하학적인 비율을 이용하여 회전정도를 구한 후, 이를 이용하여 초기 곡선을 자동으로 설정한다. 에지가 약한 부분에서의 윤곽선 추출을 위해, 스네이크의 영상에너지로 에지영상과 밝기영상을 함께 사용하였다. 복잡한 배경이 있는 실내 환경에서 총 5명으로부터 양 눈이 보이는 다양한 헤드 포즈 영상을 25장씩 샘플링하여 총 125장에 대해 실험한 결과, 얼굴 윤곽선의 평균 추출률은 98.1%, 평균 처리시간은 0.2초로 나타났다.

  • PDF

The effects of the usability of products on user's emotions - with emphasis on suggestion of methods for measuring user's emotions expressed while using a product -

  • Jeong, Sang-Hoon
    • 디자인학연구
    • /
    • 제20권2호
    • /
    • pp.5-16
    • /
    • 2007
  • The main objective of our research is analyzing user's emotional changes while using a product, to reveal the influence of usability on human emotions. In this study we have extracted some emotional words that can come up during user interaction with a product and reveal emotional changes through three methods. Finally, we extracted 88 emotional words for measuring user's emotions expressed while using products. And we categorized the 88 words to form 6 groups by using factor analysis. The 6 categories that were extracted as a result of this study were found to be user's representative emotions expressed while using products. It is expected that emotional words and user's representative emotions extracted in this study will be used as subjective evaluation data that is required to measure user's emotional changes while using a product. Also, we proposed the effective methods for measuring user's emotion expressed while using a product in the environment which is natural and accessible for the field of design, by using the emotion mouse and the Eyegaze. An examinee performs several tasks with the emotion mouse through the mobile phone simulator on the computer monitor connected to the Eyegaze. While testing, the emotion mouse senses user's EDA and PPG and transmits the data to the computer. In addition, the Eyegaze can observe the change of pupil size. And a video camera records user's facial expression while testing. After each testing, a subjective evaluation on the emotional changes expressed by the user is performed by the user him/herself using the emotional words extracted from the above study. We aim to evaluate the satisfaction level of usability of the product and compare it with the actual experiment results. Through continuous studies based on these researches, we hope to supply a basic framework for the development of interface with consideration to the user's emotions.

  • PDF

FPGA와 OpenCV를 이용한 실시간 눈동자 모션인식과 효율적인 문자 선택 시스템 (Real-time pupil motion recognition and efficient character selection system using FPGA and OpenCV)

  • 이희빈;허승원;이승준;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.393-394
    • /
    • 2018
  • 본 논문은 이전에 발표한 "FPGA와 OpenCV를 이용한 눈동자 모션인식을 통한 의사소통 시스템"을 보완하고, 몸이 불편한 환자를 위한 문자 선택 시스템을 소개한다. OpenCV를 이용해 눈 영역을 검출하고, 눈동자의 위치를 파악하여 FPGA로 보내 문자를 선택한다. 본 논문에서는 환자의 눈동자 움직임을 최소화하는 방법으로 사용자의 의도에 맞는 문자를 출력한다. 쉽게 접근할 수 있고, 다양한 알고리즘을 사용할 수 있는 OpenCV와 비교적 개발 비용이 저렴하고, 수정가능한 FPGA를 사용하여 구현한 눈동자 모션 인식 및 문자 선택 시스템을 제안한다.

  • PDF