본 논문에서는 FEC (Fog/Edge Computing) 환경에서 다중 분기구조의 부분 오프로딩을 위해 모바일 장치와 에지서버로 구성된 2계층 협력 컴퓨팅 시스템을 제안한다. 제안 시스템은 다중 분기구조에 대한 재구성 선형화 기법을 적용하여 응용 서비스 처리를 분할하는 알고리즘과 모바일 장치와 에지 서버 간의 부분 오프로딩을 통한 최적의 협업 알고리즘을 포함한다. 또한 계산 오프로딩 및 CNN 계층 스케줄링을 지연시간 최소화 문제로 공식화하고 시뮬레이션을 통해 제안 시스템의 효과를 분석한다. 실험 결과 제안 알고리즘은 DAG 및 체인 토폴로지 모두에 적합하고 다양한 네트워크 조건에 잘 적응할 수 있으며, 로컬이나 에지 전용 실행과 비교하여 효율적인 작업 처리 전략 및 처리시간을 제공한다. 또한 제안 시스템은 모바일 장치에서의 응용 서비스 최적 실행을 위한 모델의 경량화 및 에지 리소스 워크로드의 효율적 분배 관련 연구에 적용 가능하다.
This paper presents a comprehensive investigation into the optimization of Flight Management Systems (FMS) with a particular emphasis on data processing efficiency by conducting a comparative study with conventional methods to edge-computing technology. The objective of this research is twofold. Firstly, it evaluates the performance of FMS navigation systems using conventional and edge computing methodologies. Secondly, it aims to extend the boundaries of knowledge in edge-computing technology by conducting a rigorous analysis of terrain data and its implications on flight path optimization along with communication with ground stations. The study employs a combination of simulation-based experimentation and algorithmic computations. Through strategic intervals along the flight path, critical parameters such as distance, altitude profiles, and flight path angles are dynamically assessed. Additionally, edge computing techniques enhance data processing speeds, ensuring adaptability to various scenarios. This paper challenges existing paradigms in flight management and opens avenues for further research in integrating edge computing within aviation technology. The findings presented herein carry significant implications for the aviation industry, ranging from improved operational efficiency to heightened safety measures.
엣지 컴퓨팅(Edge Computing)의 핵심 기술 중 하나는 사용자의 움직임에 따라서 엣지 서버간에 데이터를 이동시켜 항상 사용자와 가까운 거리에서 서비스를 제공한다는 점이다. 그만큼 엣지 서버간의 데이터의 이동이 빈번하다. IoT 기술이 발전하고 사용영역이 확대됨에 따라 생성되는 데이터 또한 증가하기 때문에 각 데이터를 정확하게 추적하고 처리할 수 있는 기술이 필요하다. 개인정보와 같은 민감한 정보들에 대해서는 더욱 그러하다. 현재 클라우드 시스템 안에서 데이터들의 이동 및 유통에 대한 추적과 추적 기술에 기반한 데이터의 폐기 기술이 존재하지 않아 엣지 컴퓨팅 서비스의 사용자는 해당 데이터가 현재 어떤 곳에 위치하는지, 사용자가 데이터의 삭제를 요청할 경우 클라우드 시스템 내에서도 데이터가 제대로 제거되어 있는지 등을 확인할 수 없다. 본 논문에서는 엣지 컴퓨팅환경에서 각 엣지 서버와 중앙 클라우드에 저장되는 데이터들에 대해 데이터의 이동과 유통에 대한 추적 데이터를 생성, 관리하는 추적 데이터 서버를 구축하여 엣지 컴퓨팅환경에서 저장된 모든 데이터의 흐름을 정확하게 추적할 수 있는 기술과 추적 데이터를 활용하여 사용자의 움직임에 따라서 엣지 서버간의 이동하는 로컬 데이터와 분산 파일시스템에 저장된 데이터들을 정확하게 추적하고 이를 활용하여 데이터를 완벽하게 제거하는 기술을 제안한다.
Journal of information and communication convergence engineering
/
제20권3호
/
pp.166-173
/
2022
Recently, studies have been conducted on intelligent transportation systems (ITS) that provide safety and convenience to humans. Systems that compose the ITS adopt architectures that applied the cloud computing which consists of a high-performance general-purpose processor or graphics processing unit. However, an architecture that only used the cloud computing requires a high network bandwidth and consumes much power. Therefore, applying edge computing to ITS is essential for solving these problems. In this paper, we propose an edge artificial intelligence (AI) device based ITS. Edge AI which is applicable to various systems in ITS has been applied to license plate recognition. We implemented edge AI on a field-programmable gate array (FPGA). The accuracy of the edge AI for license plate recognition was 0.94. Finally, we synthesized the edge AI logic with Magnachip/Hynix 180nm CMOS technology and the power consumption measured using the Synopsys's design compiler tool was 482.583mW.
With the development of mobile edge computing, how to utilize the computing power of edge computing to effectively and efficiently offload data and to compute offloading is of great research value. This paper studies the computation offloading problem of multi-user and multi-server in mobile edge computing. Firstly, in order to minimize system energy consumption, the problem is modeled by considering the joint optimization of the offloading strategy and the wireless and computing resource allocation in a multi-user and multi-server scenario. Additionally, this paper explores the computation offloading scheme to optimize the overall cost. As the centralized optimization method is an NP problem, the game method is used to achieve effective computation offloading in a distributed manner. The decision problem of distributed computation offloading between the mobile equipment is modeled as a multi-user computation offloading game. There is a Nash equilibrium in this game, and it can be achieved by a limited number of iterations. Then, we propose a distributed computation offloading algorithm, which first calculates offloading weights, and then distributedly iterates by the time slot to update the computation offloading decision. Finally, the algorithm is verified by simulation experiments. Simulation results show that our proposed algorithm can achieve the balance by a limited number of iterations. At the same time, the algorithm outperforms several other advanced computation offloading algorithms in terms of the number of users and overall overheads for beneficial decision-making.
Edge Computing enables image-based inference in close proximity to end users and real-world objects. However, since edge servers have limited computational and accelerator resources, efficient resource management is essential. In this paper, we present HeteroAccel system that performs optimal scheduling in Kubernetes platform based on available node and accelerator information for various inference requests. Our experiments showed 25.3% improvement in overall inference performance over the default scheduling scheme in edge computing environment in which four types of inference services are requested.
KSII Transactions on Internet and Information Systems (TIIS)
/
제15권6호
/
pp.2282-2303
/
2021
To solve the problems of heavy computing load and system transmission pressure in energy internet (EI), we establish a three-tier cloud-edge integrated EI network based on a cloud-edge collaborative computing to achieve the tradeoff between energy consumption and the system delay. A joint optimization problem for resource allocation and task offloading in the threetier cloud-edge integrated EI network is formulated to minimize the total system cost under the constraints of the task scheduling binary variables of each sensor node, the maximum uplink transmit power of each sensor node, the limited computation capability of the sensor node and the maximum computation resource of each edge server, which is a Mixed Integer Non-linear Programming (MINLP) problem. To solve the problem, we propose a joint task offloading and resource allocation algorithm (JTOARA), which is decomposed into three subproblems including the uplink transmission power allocation sub-problem, the computation resource allocation sub-problem, and the offloading scheme selection subproblem. Then, the power allocation of each sensor node is achieved by bisection search algorithm, which has a fast convergence. While the computation resource allocation is derived by line optimization method and convex optimization theory. Finally, to achieve the optimal task offloading, we propose a cloud-edge collaborative computation offloading schemes based on game theory and prove the existence of Nash Equilibrium. The simulation results demonstrate that our proposed algorithm can improve output performance as comparing with the conventional algorithms, and its performance is close to the that of the enumerative algorithm.
최근 사물인터넷은 인공지능의 발전, 연결된 기기의 증가와 클라우드 시스템의 높은 성능으로 인해 급격하게 발전하고 있다. 많은 기기와 센서로부터 생산되는 엄청난 양의 데이터들은 지능적 진단, 추천 서비스 뿐 아니라 스마트 관제 서비스와 같이 서비스 영역의 확대를 이끌고 있다. 엣지 컴퓨팅(Edge Computing)에 대한 연구는 높은 성능을 지닌 하드웨어를 바탕으로 작은 또 하나의 서버로써의 역할에 국한되어 연구되고 있다. 그러나 데이터를 분석하고 의미성에 따른 서비스를 구현하기 위해서는 범용적 서버로써의 역할보다는 도메인에 특화된 기능과 요구사항을 지녀야 한다. 스마트 팩토리에서의 엣지는 제한적 필터링, 사전 포맷팅을 포함하는 전처리와 그룹 컨텍스트 융합, 지역적 룰의 관리 등을 필요로 한다. 따라서 본 논문에서는 공장 특성에 맞는 효율성과 강건함 측면을 강조하는 요구사항들을 도출하고, 클라우드와 학습된 요소 공유 방법을 기반으로 하는 엣지 컴퓨팅의 구조를 제안하고자 한다. 이 엣지는 네트워크 자원 소모를 감소시키고 룰과 학습화된 모델의 변경을 쉽게 할 수 있도록 한다.
Edge computing architecture has effectively alleviated the computing pressure on cloud platforms, reduced network bandwidth consumption, and improved the quality of service for user experience; however, it has also introduced new security issues. Existing anomaly detection methods in big data scenarios with cloud-edge computing collaboration face several challenges, such as sample imbalance, difficulty in dealing with complex network traffic attacks, and difficulty in effectively training large-scale data or overly complex deep-learning network models. A lightweight deep-learning model was proposed to address these challenges. First, normalization on the user side was used to preprocess the traffic data. On the edge side, a trained Wasserstein generative adversarial network (WGAN) was used to supplement the data samples, which effectively alleviates the imbalance issue of a few types of samples while occupying a small amount of edge-computing resources. Finally, a trained lightweight deep learning network model is deployed on the edge side, and the preprocessed and expanded local data are used to fine-tune the trained model. This ensures that the data of each edge node are more consistent with the local characteristics, effectively improving the system's detection ability. In the designed lightweight deep learning network model, two sets of convolutional pooling layers of convolutional neural networks (CNN) were used to extract spatial features. The bidirectional long short-term memory network (BiLSTM) was used to collect time sequence features, and the weight of traffic features was adjusted through the attention mechanism, improving the model's ability to identify abnormal traffic features. The proposed model was experimentally demonstrated using the NSL-KDD, UNSW-NB15, and CIC-ISD2018 datasets. The accuracies of the proposed model on the three datasets were as high as 0.974, 0.925, and 0.953, respectively, showing superior accuracy to other comparative models. The proposed lightweight deep learning network model has good application prospects for anomaly traffic detection in cloud-edge collaborative computing architectures.
최근 디지털 데이터 양의 기하급수적 증가는 데이터 처리 시스템의 중요성을 부각시켰다. 이 연구는 클라우드 컴퓨팅 (CC; cloud computing), 엣지 컴퓨팅 (EC; edge computing), 그리고 UAV (unmanned aerial vehicle) 기반 지능형 에지 컴퓨팅 (UEC; unmanned aerial vehicle-based intelligent edge computing) 간의 성능을 비교하였으며, 특히 회랑감시와 같은 실시간 대용량 데이터 처리 상황에 초점을 맞추었습니다. UAV 기반 지능형 에지 컴퓨팅은 이동성과 특수 환경에서의 대규모 데이터 처리 및 분석에 높은 효과성을 보인다. 이러한 연구 결과를 바탕으로 각 상황에 맞게 최적화된 시스템 선택 방법론을 제안한다.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.