• 제목/요약/키워드: 컴퓨터 모델

검색결과 5,786건 처리시간 0.035초

시뮬라시옹과 포스트-재현 - 알고리즘 아트를 중심으로 (Simulation and Post-representation: a study of Algorithmic Art)

  • 이수진
    • 기호학연구
    • /
    • 제56호
    • /
    • pp.45-70
    • /
    • 2018
  • 르네상스 이후부터 지속되어 온 재현체계에 관한 포스트모던 철학의 비판은 시각주체의 경험과 대상을 분리하고, 환경과 인간을 분리하는 이분법적인 사고체계에 관한 비판으로 궤를 같이 한다. 1960년대 포스트모던한 흐름으로 등장한 일련의 작품에서 강조된 상호작용성은 1990년대 후반 디지털 아트의 인터랙티브한 차원으로 계승되었다. 디지털 아트의 핵심적인 특성은 현장에서 관객의 참여에 따라 예측할 수 없는 결과 혹은 저마다의 미세한 변화를 반영한 무한대의 변이들을 만들어낸다는 점이다. 이 과정에서 컴퓨터 프로그램의 중요성이 부각되고, 기존 프로그램을 그대로 차용하는 것이 아니라, 아티스트가 직접 알고리즘을 작성하고 프로그래밍하는 경우 혹은 프로그래머와 협업을 통해 고유한 알고리즘을 만들어내는 경우가 점점 증가하고 있다. 프로그래밍 자체를 창작 행위로 간주해야 하는 패러다임으로 전환되는 중이라고 말할 수도 있겠다. 현재 주목받고 있는 시뮬레이션과 VR 기술은 현실의 감각과 시공간을 재현해내는 기술로 각광받고 있는데, 시뮬레이션 기술이 예술 분야에 도입되면서, 실험적인 작품들이 창작되는 중이다. 장 보드리야르가 제시한 시뮬라시옹 개념은 '어떤 현실을 본따 매우 사실적으로 만듦'을 대변하는 개념이라기보다는 '실재하는 현실과 어떤 관계를 맺고 있는 전혀 다른 현실'을 주목하게 만드는 개념이다. 이때 시뮬라시옹은 진실과 거짓의 문제를 따질 주제가 아니라, 형이상학적인 의미가 없는, 전통적인 실재와는 전혀 다른 성질의 실재를 지칭한다. 전통적인 질서에서 이미지가 실재 세계의 재현에 대응했다면, 알고리즘 아트의 시뮬레이션 이미지들 그리고 시뮬레이션된 시공간은 '체험을 용이하게 만드는 예술 형식'이라 할 수 있다. 다수의 알고리즘 아트는 상황, 현실, 생태계, 생명체 등의 복합적인 속성을 시스템으로 모델화하여 (특정 혹은 개별) 대상을 구조화하고 활성화하는 데 목표를 두고 있으며, 세계의 시뮬라시옹에 주목한다. 본 논문에서는 세계의 시뮬라시옹을 다루는 이안 쳉의 작품을 통해, 21세기 인공지능 기술의 등장과 함께 변화하고 있는 문화예술의 패러다임을 살펴보고자 한다. 또한 이안 쳉의 라이브 시뮬레이션과 같은 새로운 형식의 콘텐츠 앞에서 우리가 취해야 하는 태도 역시 논의하게 될 것이다. 사실 새로운 형식의 작품을 대면하는 순간은 전통적인 형식의 작품보다 훨씬 더 능동적인 입장을 요구한다. 본 논문이 제시하는 포스트-재현 형식의 문화예술 작품은 개인적인 경험의 순간에 이루어지는 감각과 지각 과정이 완성이나 종결로 수렴될 수 없음을 기술로 구현하고 있다. 이때 관객에게 요구되는 것은 바로 능동적 인식과 상황적 지식임을 이야기하고자 한다.

해양 이상 자료 탐지를 위한 오토인코더 활용 기법 최적화 연구 (An Outlier Detection Using Autoencoder for Ocean Observation Data)

  • 김현재;김동훈;임채욱;신용탁;이상철;최영진;우승범
    • 한국해안·해양공학회논문집
    • /
    • 제33권6호
    • /
    • pp.265-274
    • /
    • 2021
  • 해양 이상 자료 탐지의 연구는 이전부터 활발하게 이루어지고 있으며, 통계 및 거리 기반의 기계 학습 알고리즘을 활용하는 기법들이 개발되었다. 최근에는 AI 기반의 해양 자료 이상 탐지 기법이 많은 관심을 받고 있으며, AI를 활용한 해양 이상 자료 탐지 기법은 정답이 주어지는 지도학습 기법이 주를 이루고 있다. 이러한 방법은 학습에 필요한 모든 자료에 수작업으로 분류 정보(라벨)를 지정해야 한다는 점에서 많은 시간과 비용이 요구된다. 본 연구에서는 이러한 문제를 극복하기 위해 비지도학습 기반의 오토인코더를 이상 자료 탐지 기법에 사용하였다. 실험으로는 오토인코더의 평가를 위해 단변수·다변수학습 두가지 실험을 구성하였고, 단변수 학습은 기상청에서 제공하는 덕적도 부이 정점 관측 자료 중 수온만 사용하였으며, 다변수 학습은 수온과 기온, 풍향, 풍속, 기압, 습도 등을 사용하였다. 사용기간은 1996~2020년의 25년간이며 학습 자료에 해양-기상 자료의 특성을 고려한 전처리 기법을 적용하였다. 학습된 다변수와 단변수 오토인코더를 활용하여 실제 표층 수온에 대한 이상 탐지를 시도하였다. 모델성능 비교를 위해 오차를 삽입한 합성 자료에 다변수와 단변수 오토인코더를 포함한 여러 이상 탐지 기법을 적용하여 정량적으로 평가하였으며, 다변수/단변수의 정확도가 각각 약 96%/91%로써 다변수 오토인코더가 더 나은 이상자료 탐지 성능을 보였다. 오토인코더를 이용한 비지도학습 기반 이상 탐지 기법은 주관적 판단에 의한 오류와 자료 라벨링에 필요한 시간과 비용을 줄일 수 있다는 점에서 다양하게 활용될 것으로 판단된다.

디지털 트윈 기반 노지스마트팜 활용방안 (Utilization of Smart Farms in Open-field Agriculture Based on Digital Twin)

  • 김석구
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2023년도 춘계학술대회
    • /
    • pp.7-7
    • /
    • 2023
  • 현재 다양한 4차산업의 주요기술로는 빅데이터, 사물인터넷, 인공지능, 블록체인, 혼합현실(MR), 드론 등이 대표적인 기술들이다. 특히 최근에 세계적인 기술적 트랜드로 자리 잡고 있는 "디지털 트윈(digital twin)은 물리적인 사물과 컴퓨터에 동일하게 표현되는 가상 모델의 개념으로서. 실제 물리적인 자산 대신 소프트웨어로 가상화한 자산의 Digital twin을 만들어 모의실험함으로써 실제 농작업의 특성(현재 상태, 농업생산성, 농작업 시나리오, 등)에 대한 정확한 정보를 얻을 수 있다. 본 연구에서는 노지노업 주산지에 대한 디지털 트윈 데이터를 구축하고 스마트팜 단지를 설계 및 구축하여, 통합관제시스템 운영을 통해 자동 물관리, 원격생육예찰, 드론방제, 병충해 예찰작업 등으로 농작업을 효율화하고자 한다. 또한, 빅데이터 분석을 통한 적정량의 비료·농약사용으로 환경적 부하를 최소화하여, 노동력절감, 농작물 생산성을 향상할 수 있는 디지털 환경제어농업을 국내에 보급하고자 한다. 이러한 노지농업 기술은 디지털 농작업 및 재배관리 등 으로 노동력이 절감되고, 기후변화에 대비한 물이용 최적화와 토양오염예방 효과를 기대할 수 있으며, 전국 재배환경 디지털 데이터 확보를 통한 노지작물의 정량적인 생육관리가 가능하게 된다. 또한 농업생산성 향상을 통한 탄소중립 RED++ 활동을 직접적으로 실천을 할 수 있는 방안이다. 취득된 고정밀·고화질 영상기반 농작물 생육데이터취득을 통한 생육현황 분석과 예측은 디지털 영농작업관리에 매우 효과적이다. 실제 국립식량과학원 남부작물부에서는 지중점적, 땅속배수 등 다양한 종류의 노지스마트팜 연구개발을 진행하였다. 특히, 올해부터는 전국농업기술원 단지를 대상으로 노지스마트팜 시설 구축 및 기술 보급을 통한 사업화를 본격적으로 진행하고 있다. 본 연구에서는 디지털 트윈 기술과 노지스마트팜 기술을 융합한 농업분야 구축사례와 향후 활용방안에 대하여 서술하고자 한다.

  • PDF

Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발 (Development of a complex failure prediction system using Hierarchical Attention Network)

  • 박영찬;안상준;김민태;김우주
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.127-148
    • /
    • 2020
  • 데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.

가상현실 웨어러블 기기의 구매 촉진을 위한 태도 자신감과 사용자 저항 태도: 가상현실 헤드기어를 중심으로 (Attitude Confidence and User Resistance for Purchasing Wearable Devices on Virtual Reality: Based on Virtual Reality Headgears)

  • 손봉진;박다슬;최재원
    • 지능정보연구
    • /
    • 제22권3호
    • /
    • pp.165-183
    • /
    • 2016
  • 스마트폰을 넘어 차세대 IT 비즈니스의 주목할 만한 후보군으로 가상현실이 이슈가 되고 있다. 가상현실은 컴퓨터와 VR헤드셋을 통해 구현한 입체적인 가상공간을 제공함으로써 사용자의 시각을 완전히 장악하고, 청각, 촉각 등 오감과의 상호작용 및 음성, 동작인식 등을 통해 가상공간을 마치 현실처럼 느끼게 한다는 점에서 향후 주목할 만한 산업 분야로 떠오르고 있다. 많은 글로벌 대기업들이 가상현실과 관련한 사업에 투자를 하고 있으나 소비자의 관점에서 가상현실 관련 제품군은 아직 쉽게 접하거나 구매하기 어려운 제품군으로 인식된다. 그렇기 때문에 소비자의 태도 변화가 큰 변화가 발생되고 있지 않으며 Acception & Diffusion 모델의 초기단계에 지나지 않아 구매로 연결되지 않는 실정이다. 본 연구는 기존 선행연구의 관점을 바탕으로 가상현실 헤드기어 제품들의 판매 촉진을 위한 사용자 관점에서의 사용자 저항을 매개 변수로 저항을 감소시키고 사용 및 구매의도에 영향을 주는 선행요인들을 도출하고자 하였으며 사용자가 가지고 있는 태도에 대한 자신감에 영향을 주어 행동 의도까지 변화시키는 현상에 대한 분석을 하고자 하였다. 본 연구의 결과는 태도 자신감에 대한 사용 용이성과 사용 혁신성의 영향력을 확인할 수 있었다. 마찬가지로 사용자 혁신저항에 영향력을 주는 변수로는 가격, 심미적 외관, 즐거움, 콘텐츠 및 화질 관련 변수들을 도출하였다. 결과적으로 본 연구는 태도 자신감의 가상현실 혁신 수용에 대한 영향력을 제시하고 가격 이외 변수인 콘텐츠의 양과 저항감의 관계성을 바탕으로 관련 변수들을 제시하였다. 특히 초기 시장인 가상현실 제품의 특성에 따라 브랜드에 대한 선점효과의 필요성과 콘텐츠의 부족함 등이 실무적으로 해결해야 할 과제로서 확인되었다.

자율 주행을 위한 Edge to Edge 모델 및 지연 성능 평가 (Edge to Edge Model and Delay Performance Evaluation for Autonomous Driving)

  • 조문기;배경율
    • 지능정보연구
    • /
    • 제27권1호
    • /
    • pp.191-207
    • /
    • 2021
  • 오늘날 이동통신은 급증하는 데이터 수요에 대응하기 위해서 주로 속도 향상에 초점을 맞추어 발전해 왔다. 그리고 5G 시대가 시작되면서 IoT, V2X, 로봇, 인공지능, 증강 가상현실, 스마트시티 등을 비롯하여 다양한 서비스를 고객들에게 제공하기위한 노력들이 진행되고 있고 이는 우리의 삶의 터전과 산업 전반에 대한 환경을 바꿀 것으로 예상되고 되고 있다. 이러한 서비스를 제공하기위해서 고속 데이터 속도 외에도, 실시간 서비스를 위한 지연 감소 그리고 신뢰도 등이 매우 중요한데 5G에서는 최대 속도 20Gbps, 지연 1ms, 연결 기기 106/㎢를 제공함으로써 서비스 제공할 수 있는 기반을 마련하였다. 하지만 5G는 고주파 대역인 3.5Ghz, 28Ghz의 높은 주파수를 사용함으로써 높은 직진성의 빠른 속도를 제공할 수 있으나, 짧은 파장을 가지고 있어 도달할 수 있는 거리가 짧고, 회절 각도가 작아서 건물 등을 투과하지 못해 실내 이용에서 제약이 따른다. 따라서 기존의 통신망으로 이러한 제약을 벗어나기가 어렵고, 기반 구조인 중앙 집중식 SDN 또한 많은 노드와의 통신으로 인해 처리 능력에 과도한 부하가 발생하기 때문에 지연에 민감한 서비스 제공에 어려움이 있다. 그래서 자율 주행 중 긴급 상황이 발생할 경우 사용 가능한 지연 관련 트리 구조의 제어 기능이 필요하다. 이러한 시나리오에서 차량 내 정보를 처리하는 네트워크 아키텍처는 지연의 주요 변수이다. 일반적인 중앙 집중 구조의 SDN에서는 원하는 지연 수준을 충족하기가 어렵기 때문에 정보 처리를 위한 SDN의 최적 크기에 대한 연구가 이루어져야 한다. 그러므로 SDN이 일정 규모로 분리하여 새로운 형태의 망을 구성 해야하며 이러한 새로운 형태의 망 구조는 동적으로 변하는 트래픽에 효율적으로 대응하고 높은 품질의 유연성 있는 서비스를 제공할 수 있다. 이러한 SDN 구조 망에서 정보의 변경 주기, RTD(Round Trip Delay), SDN의 데이터 처리 시간은 지연과 매우 밀접한 상관관계를 가진다. 이 중 RDT는 속도는 충분하고 지연은 1ms 이하이기에 유의미한 영향을 주는 요인은 아니지만 정보 변경 주기와 SDN의 데이터 처리 시간은 지연에 크게 영향을 주는 요인이다. 특히, 5G의 다양한 응용분야 중에서 지연과 신뢰도가 가장 중요한 분야인 지능형 교통 시스템과 연계된 자율주행 환경의 응급상황에서는 정보 전송은 매우 짧은 시간 안에 전송 및 처리돼야 하는 상황이기때문에 지연이라는 요인이 매우 민감하게 작용하는 조건의 대표적인 사례라고 볼 수 있다. 본 논문에서는 자율 주행 시 응급상황에서 SDN 아키텍처를 연구하고, 정보 흐름(셀 반경, 차량의 속도 및 SDN의 데이터 처리 시간의 변화)에 따라 차량이 관련정보를 요청해야 할 셀 계층과의 상관관계에 대하여 시뮬레이션을 통하여 분석을 진행하였다.