• 제목/요약/키워드: Digital techniques

검색결과 2,228건 처리시간 0.03초

하늘상태와 음영기복도에 근거한 복잡지형의 일조시간 분포 상세화 (Downscaling of Sunshine Duration for a Complex Terrain Based on the Shaded Relief Image and the Sky Condition)

  • 김승호;윤진일
    • 한국농림기상학회지
    • /
    • 제18권4호
    • /
    • pp.233-241
    • /
    • 2016
  • 기상청에서 제공하는 넓은 지역의 수평면 일조시간 정보를 복잡한 산간집수역의 지형특성을 반영한 실제 일조시간 분포도로 변환하기 위해 지형효과를 정량화하기 위한 실험을 수행하였다. 경남 하동군 악양면 단일 집수역을 대상으로 정밀 DEM을 이용하여 그림자모형화 및 공제선분석 기법을 적용하여 일중 시간대별 음영기복도 1년 자료를 제작하였다. 2015년 5월 15일부터 2016년 5월 14일까지 1년 간 지형조건이 서로 다른 3지점에서 바이메탈식 일조계로 측정한 일조시간자료에 음영기복도 상 해당 지점의 휘도값을 추출하여 회귀시킴으로써 맑은 날의 휘도-일조시간 반응곡선을 얻었다. 이 곡선식을 하늘상태(운량)에 따라 보정할 수 있는 방법을 고안함으로써 일조시간 상세화 모형을 도출하였다. 이 모형의 신뢰도를 기존 수평면 일조시간 추정기법과 비교한 결과 추정값의 편의가 크게 개선된 것은 물론, 일적산일조시간 기준 RMSE가 1.7시간으로 지형효과를 반영하기 전보다 37% 이상 개선되었다. 어떤 지역을 대상으로 일조시간을 상세화 하기 위해서는 먼저 대상 지역의 매 시간 음영기복도의 격자점 휘도를 모형에 입력시켜 해당 시간대의 청천 일조시간을 추정한다. 다음에 같은 시간대의 기상청 동네예보(하늘상태)에 의해 구름 효과를 보정한다. 이렇게 추정된 매 시간 일조시간을 하루 단위로 적산하여 그 날의 누적 일조시간을 얻는다. 이 과정을 연구대상 집수역에 적용하여 수평 해상도 3m의 정밀한 일조시간 분포도를 얻을 수 있었다.

UMA를 위한 유틸리티 기반 MPEG-21 비디오 적응 (Utility-Based Video Adaptation in MPEG-21 for Universal Multimedia Access)

  • 김재곤;김형명;강경옥;김진웅
    • 방송공학회논문지
    • /
    • 제8권4호
    • /
    • pp.325-338
    • /
    • 2003
  • 가변의 자원제한(resource constraint) 및 사용자 선호(preference)를 만족하기 위한 비디오 적응(adaptation)은 다양한 사용자 단말과 이종망을 통한 범용적멀티미디어접근(Universal Multimedia Access: UMA)을 위한 주요 요소기술이다. 기존의 많은 비디오 적응 기법이 존재하지만 주어진 자원제한을 만족하는 최적의 적응을 제공하기 위한 체계적인 기법은 제시되지 못하였다. 본 논문에서는 체계적인 최적의 적응을 제공하기 위하여, 적응단위를 정의하는 비디오 엔티티(entity), 주어진 자원제한을 나타내는 리소스(resource), 적용 가능한 적응동작을 규정하는 적응(adaptation), 각 적응결과 비디오 품질(quality)을 나타내는 유틸리티(utility)의 관계를 모형화하는 개념적인 적응 프레임워크를 제시하고자 한다. 본 프레임워크는 다양한 형태의 적응의 문제를 제한된 자원에서 유틸리티를 최대화하는 문제(resource-constrained utility maximization)로 정형화(formulation)할 수 있도록 한다. 본 논문에서는 이 프레임워크를 프레임 제거(frame dropping)과 DCT 계수 제거(coefficient dropping)을 이용한 MPEG-4 압축 비디오의 비트율 적응의 실제적인 예에 적용한다. 또한 상호연동 가능한(interoperable) 형태로 터미널 및 네트워크 QoS(quality of Service)를 제공하기 위한 툴로 MPEG-21 Digital Item Adaptation(DIA)에 채택된 기술자(descriptor)를 제시한다. 이 기술자는 본 프레임워크의 적응-리소스-유틸리티의 관계를 유틸리티 함수(utility function)를 이용하여 기술(description)한다. 실험을 통하여 본 논문의 표준 기술자를 사용하는 적응 프레임워크의 타당성을 보인다.다. 특정시기 가곡향유의 실질은 곧 가곡의 곡 해석방식에 직결될 것이기 때문이다.를 선택하는가 하는 디자이너 측면의 요인이 감성 품질과 밀접함 관련이 있음을 알 수 있었다.멘트들의 재배열이 주된 역할을 하는 것으로 해석할 수 있다. 한편 고자장 영역에서는 correlation time 중 $\tau$가 주된 역할을 담당하는데는 $\tau$는 나노 입자의 크기와 연관되어 있으며 고자장에서 입자 크기에 따른 T1 이완율(R1)과 T2 이완율(R2)의 차이는 이러한 입자크기의 차이에 의해 발생하는 것으로 해석할 수 있다. 나노입자에 포함된 철 원자수를 변화시키는 경우 철 원자수가 증가 할 수록 R1과 R2가 증가하는 결과를 나타내었다. 한편 온도변화에 따른 T1, T2 자기이완시간의 변화는 정상체온 근처의 제한적인 온도범위내에서 저자장 영역에서의 아주 작은 변화를 제외하고는 큰 차이를 보이지 않았으나 T1에 비해 T2에서 이러한 변화가 상대적으로 더 작게 나타났다. 결론 : 임상적 다기능성을 나타낼 가능성이 많은 것으로 보고되고 있는 미세 초상자성 산화철 입자의 자기이완에 대한 이론적 모델을 초상자성 나노입자의 물리적 특성에 기초하여 제시하였고 이러한 이론적 모델에 근거한 미세 초상자성 산화철 입자의 자기장의 세기에 따른 자기 이완시간의 변화를 컴퓨터 모의 실험을 통해 조사하였다.다.있는 것으로 보여진다. 따라서 혈압 저하를 목적으로 하는 나트륨 제한식의 실시는 다양한 체내의 생화학적 변화를 고려해서 이루어져야 할 것이며, 앞으로 이에 대한 보다 다각적인 연구가 요구된다.CSU-23 배양배지에서 배양하는 것이 좋다는 결과를 얻었다. and those a having sufficient sleep were found to be subject to less stress. Those interested in their health were found

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

지상용 초분광 스캐너를 활용한 사과의 당도예측 모델의 성능향상을 위한 연구 (Study of Prediction Model Improvement for Apple Soluble Solids Content Using a Ground-based Hyperspectral Scanner)

  • 송아람;전우현;김용일
    • 대한원격탐사학회지
    • /
    • 제33권5_1호
    • /
    • pp.559-570
    • /
    • 2017
  • 본 연구에서는 야외에서 자료 취득이 가능하며 한 번에 다량의 사과를 촬영할 수 있는 지상용 초분광 스캐너를 활용하여 사과의 분광정보와 당도와의 부분최소제곱회귀분석(PLSR, Partial Least Square Regression)을 수행하였으며, 최적의 예측모델을 구축하기 위한 다양한 전처리기법의 적용가능성을 평가하고 VIP(Variable Importance in Projection)점수를 통한 최적밴드를 산출하였다. 이를 위하여 360-1019 nm영역에서 촬영된 515밴드의 초분광 영상에서 70개의 분광곡선을 취득하였으며, 디지털광도계를 이용하여 당도($^{\circ}Brix$)를 측정하였다. 사과의 분광특성과 당도사이의 회귀모델을 구축하였으며, 최적의 예측모델은 모델 예측치와 실측치간의 결정계수($r_p^2$, coefficient of determination of prediction)와 RMSECV(Root Mean Square Error of Cross Validation), RMSEP(Root Mean Square Error of Prediction)등을 고려하여 선정하였다. 그 결과 산란보정 기법의 대표적인 MSC(Multiplicative Scatter Correction)의 기반의 전처리기법이 가장 효과적이었으며, MSC와 SNV(Standard Normal Variate)를 조합한 경우 RMSECV와 RMSEP가 각각 0.8551과 0.8561로 가장 낮았고, $r_c^2$$r_p^2$은 각각 0.8533과 0.6546으로 가장 높았다, 또한 360-380, 546-690, 760, 915, 931-939, 942, 953, 971, 978, 981, 988, 992-1019 nm 등이 당도 측정을 위한 가장 영향력 있는 파장영역으로 나타났다. 해당 영역의 분광값을 가지고 PLSR을 수행한 결과, 전파장대를 사용할 때보다 RMSEP가 0.6841로 감소하고 $r_p^2$는 0.7795로 증가하는 것을 확인하였다. 본 연구를 통하여 사과의 당도측정에 있어 야외에서 취득한 초분광 영상자료의 활용 가능성을 확인하였으며, 이는 필드자료 및 센서 활용분야의 확장가능성을 보여준다.

CT 영상 및 kV X선 영상을 이용한 자동 표지 맞춤 알고리듬 개발 (Development of an Automatic Seed Marker Registration Algorithm Using CT and kV X-ray Images)

  • 정광호;조병철;강세권;김경주;배훈식;서태석
    • Radiation Oncology Journal
    • /
    • 제25권1호
    • /
    • pp.54-61
    • /
    • 2007
  • 목 적: 본 연구의 목적은 전립선암 환자의 방사선 치료 시 표적의 정확한 위치를 찾기 위해 표지(marker)를 삽입한 경우 방사선치료계획 시 촬영한 CT 영상과 매 치료 시 온보드 영상장치(on-board imager, OBI)로부터 획득된 직교 kV X선 영상을 이용하여 표지의 위치를 계산하고 자동으로 맞춤을 수행하여 환자 셋업 오차를 보정하도록 하는 방법을 개발하는 것이다. 대상 및 방법: 세 개의 금 표지를 환자 전립선의 기준 위치에 삽입한 후 CT 모의치료기를 이용하여 2 mm 슬라이스 간격으로 CT 영상을 획득하였으며 매 치료 전에 환자 셋업 보정을 위하여 OBI를 이용하여 직교하는 kV X선 환자 영상을 획득하였다. CT 및 kV X선 영상 내 표지 정보 및 좌표 값 추출을 위하여 화소값의 문턱값 처리, 필터링, 외곽선 추출, 패턴 인식 등 다수의 영상처리 알고리듬을 적용하였다. 각 표지들 위치의 대표값으로 삼각형의 무게중심 개념을 이용하였으며 기준 CT 영상 및 직교 kV X선 영상으로부터 각각 무게중심의 좌표를 구한 후 그 차이를 보정해야 할 셋업의 오차로 계산하였다. 알고리듬의 건전성(robustness) 평가를 위해 팬텀을 이용하여 계산된 CT 및 kV X선 영상의 무게중심이 실제 지정된 위치와 일치하는지 여부를 확인하였으며, 본원에서 방사선 치료를 시행한 네 명의 전립선암 환자에 대상으로 치료 직전 촬영한 38 내지 39쌍의 kV X선 영상에 대하여 알고리듬을 적용한 후 OBI 프로그램에서 제공되는 2차원-2차원 맞춤 결과와 비교하였다. 결 과: 팬텀 실험 결과 실제 값과 CT 영상 및 직교 kV X선 영상으로부터 계산된 무게 중심 좌표 값이 1 mm 오차 내에서 일치함을 확인할 수 있었다. 환자 영상에 적용한 경우에도 모든 영상에 대하여 성공적으로 각 표지의 위치를 계산할 수 있었으며 2차원-2차원 맞춤 기능을 이용하여 계산된 셋업 오차와 비교해본 결과 1 mm 범위 내에서 일치함을 확인할 수 있었다. 본 알고리듬을 이용하여 계산한 결과 셋업 오차는 전후(AP) 방향으로 환자별로 작게는 $0.1{\pm}2.7\;mm$에서 크게는 $1.8{\pm}6.6\;mm$까지, 상하(SI) 방향으로 $0.8{\pm}1.6\;mm$에서 $2.0{\pm}2.7\;mm$, 좌우(Lat) 방향으로 $-0.9{\pm}1.5\;mm$에서 $2.8{\pm}3.0\;mm$까지였으며 환자에 따라 그 편차의 차이가 있었다. 결 론: 제안된 알고리듬을 이용하여 1회 셋업 오차를 평가하는 데 소요되는 시간은 10초 미만으로서 임상 적용 시 환자 셋업 시간을 줄이고 주관성을 배제하는 데 도움이 될 수 있을 것으로 기대된다. 그러나 온라인 환자 셋업 보정 시스템에 적용하기 위해서는 선형가속기의 제어 시스템에 통합되는 것이 필요하다.

45nm CMOS 공정기술에 최적화된 저전압용 이득-부스팅 증폭기 기반의 1.1V 12b 100MS/s 0.43㎟ ADC (A 1.1V 12b 100MS/s 0.43㎟ ADC based on a low-voltage gain-boosting amplifier in a 45nm CMOS technology)

  • 안태지;박준상;노지현;이문교;나선필;이승훈
    • 전자공학회논문지
    • /
    • 제50권7호
    • /
    • pp.122-130
    • /
    • 2013
  • 본 논문에서는 주로 고속 디지털 통신시스템 응용을 위해 고해상도, 저전력 및 소면적을 동시에 만족하는 45nm CMOS 공정으로 제작된 4단 파이프라인 구조의 12비트 100MS/s ADC를 제안한다. 입력단 SHA 회로에는 높은 입력 주파수를 가진 신호가 인가되어도 12비트 이상의 정확도로 샘플링할 수 있도록 게이트-부트스트래핑 회로가 사용된다. 입력단 SHA 및 MDAC 증폭기는 요구되는 DC 이득 및 높은 신호스윙을 얻기 위해 이득-부스팅 구조의 2단 증폭기를 사용하며, 넓은 대역폭과 안정적인 신호정착을 위해 캐스코드 및 Miller 주파수 보상기법을 선택적으로 적용하였다. 채널길이 변조현상 및 전원전압 변화에 의한 전류 부정합을 최소화하기 위하여 캐스코드 전류 반복기를 사용하며, 소자의 부정합을 최소화하기 위하여 전류 반복기와 증폭기의 단위 넓이를 통일하여 소자를 레이아웃 하였다. 또한, 제안하는 ADC에는 전원전압 및 온도 변화에 덜 민감한 저전력 기준 전류 및 전압 발생기를 온-칩으로 집적하는 동시에 외부에서도 인가할 수 있도록 하여 다양한 시스템에 응용이 가능하도록 하였다. 제안하는 시제품 ADC는 45nm CMOS 공정으로 제작되었으며 측정된 DNL 및 INL은 각각 최대 0.88LSB, 1.46LSB의 값을 가지며, 동적성능은 100MS/s의 동작속도에서 각각 최대 61.0dB의 SNDR과 74.9dB의 SFDR을 보여준다. 시제품 ADC의 면적은 $0.43mm^2$ 이며 전력소모는 1.1V 전원전압 및 100MS/s 동작속도에서 29.8mW이다.

방사선 세기 조절 치료에서 선량을 규명하는 데 사용된 BlnS System의 특성 (The Properties of Beam Intensity Scanner (BInS) for Dose Verification in Intensity Modulated Radiation Therapy)

  • 박영우;박광열;박경란;권오현;이명희;이병용;지영훈;김근묵
    • 한국의학물리학회지:의학물리
    • /
    • 제15권1호
    • /
    • pp.1-8
    • /
    • 2004
  • 방사선 치료과정에서 가장 중요한 것은 환자에게 조사된 흡수선량을 검증하는 것이다. IMRT에 사용되는 방사선의 물리적 특성을 결정하고 환자에 조사된 선량분포를 검증할 수 있는 정밀한 선량 측정 장치가 필요하다. 본 연구에서 2차원 광자선의 선량검증을 위해 만들어진 BInS (Beam Intensity Scanner)에 관하여 논의한다. BInS에 있는 Scintillator는 광자선이나 전자선에 조사되면 형광을 발생하는 Gd$_2$O$_2$S:Tb를 주성분으로 한다. Scintillator에서 발생된 형광은 디지털 비디오카메라에 의해 수집되어 디지털 신호로 바뀌고 자체 제작한 소프트웨어에 의해 분석되며 상대적인 선량 분포가 3차원 그림으로 표시된다. BInS가 IMRT에서 사용가능한지를 알아보기 위하여 치료에 관련된 몇 가지 측정을 하였다. IMRT의 주요 작동방식 중의 하나인 SMLC (static multileaf collimator) 방식에서는, leaf들의 동작을 통제하여 만들어지는 여러 개의 정적 조사면적(static portal)을 통하여 IMB (intensity modulated beam)이 만들어진다. 따라서 여러 개의 정적 조사면적이 연달아 맞닿아 있는 경우, 연속된 두 조사면적의 경계면에서 penumbra와 산란된 광자들이 겹쳐지고 따라서 hot spot이 생기게 된다. 이와 같이 SMLC 방식에서 나타나는 inter-step hot spot들의 존재를 BInS를 이용하여 측정하여 가시화하였고 또한 그것들을 제거하는 실험적 방법도 제시하였다. IMRT에서 사용되는 다른 주요한 작동방식인 DMLC (dynamic multileaf collimator)는 광자선이나 전자선을 제어하는 leaf의 작동방식이 다르기 때문에 SMLC 방식과는 다른 특성을 보인다. 따라서 BInS를 이용하여 SMLC와 DMLC 방식에 의해 실제로 target에 투사된 선량을 측정 비교하였다. 비록 같은 선량을 target 부위에 투사하기로 계획했을지라도, 실제로는 산란된 광자와 전자들 때문에 DMLC 방식에 의한 선량이 SMLC 방식에 의한 선량보다 14.8%나 큰 것으로 측정되었다.

  • PDF

갠트리 회전에 의한 온-보드 영상장치 회전중심점의 정도관리 프로그램 개발 (Development of Quality Assurance Program for the On-board Imager Isocenter Accuracy with Gantry Rotation)

  • 정광호;조병철;강세권;김경주;배훈식;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제17권4호
    • /
    • pp.212-223
    • /
    • 2006
  • 본 연구에서는 방사선치료용 선형가속기의 갠트리 회전에 따른 온-보드 영상장치(on-board imager, OBI)의 회전중심점의 위치 정확도 확인을 위해 제조사에서 제공된 고객인수시험절차서(customer accetpance procedure, CAP)상에서 명시된 방법을 비롯하여 OBI 선원 위치 $0^{\circ},\;90^{\circ},\;180^{\circ},\;270^{\circ}$에서 획득된 영상, 갠트리 각도 $10^{\circ}$ 간격으로 촬영된 영상, 콘빔 CT 재구성을 위한 미처리 투사영상 등에 디지털 영상처리 기법을 적용하여 자동으로 오차를 계산하는 새로 제안된 세 가지의 방법들을 각기 적용하여 그 오차를 평가하고 각 방법의 효용성에 대하여 검증하였다. 갠트리 회전에 따른 OBI 회전중심점의 오차 변화 양상 확인을 위해서는 $10^{\circ}$ 간격으로 영상 촬영 후 5차 다항식을 이용하여 조정함수(fitted function)를 구하는 방법이 적절하지만 정도관리 목적으로 최대 오차만을 구하고자 할 경우에는 $0^{\circ},\;90^{\circ},\;180^{\circ},\;270^{\circ}$ 등 네 방향에서 촬영된 영상을 이용하여 계산하는 것으로도 충분하였다. 각 방법을 적용하여 오차를 구한 결과 OBI 선원의 위치가 $90^{\circ}$부터 $180^{\circ}$ 사이일 경우 가장 크게 나타났으며 최대값은 0.44 mm였다. 또한 기간에 따른 OBI 회전중심점의 변화 양상은 최대 0.6 mm 이내로 안정적으로 유지되고 있음을 확인하였다. 본 연구에서 제안된 방법이 주기적인 정도관리에 적용된다면 간단하면서도 비교적 정확하게 평가를 수행할 수 있을 것으로 기대된다.

  • PDF

QR 코드를 이용한 의료정보 시스템 설계 및 구현 (Design and Implementation of Medical Information System using QR Code)

  • 이성권;정창원;주수종
    • 인터넷정보학회논문지
    • /
    • 제16권2호
    • /
    • pp.109-115
    • /
    • 2015
  • 신규 의료기기 개발 기술의 발전으로 다양한 형태로 손쉽게 생체 정보 및 의료 정보를 얻을 수 있는 기술이 증가하고 있다. 이러한 정보 수집 기술과 기기들의 증가로 생체 정보는 일상생활의 라이프로그와 함께 의료서비스의 주요 정보로 활용되고 있다. 그러나 다양한 생체신호의 활용성이 증가하고 있지만 보안적인 측면을 고려하지 않는 문제점을 갖고 있다. 또한, 의료현장에서 환자의 생체신호와 의료영상정보는 개별적인 디바이스에 의해 생성되며, 통합 관리되지 못하는 실정이다. 이러한 문제점을 해결하기 위해서, 본 논문에서는 생체신호와 의사의 소견정보를 포함하여 QR 코드화하고 이와 연계된 의료영상정보와 통합하고자 한다. 이를 위해, 의료영상정보 표준인 DICOM(Digital Imaging and Communication in Medicine)과 기존 생체신호 계측기들로부터 수집된 생체신호를 QR 코드화하여 의료영상정보에 통합한 이미지 파일 스킴을 제시한다. 그리고 시스템 구현 환경은 의료영상기기와 생체신호 수집을 위한 생체신호 계측기 그리고 스마트 디바이스와 PC로 구성하였다. 의료기기나 생체 신호 계측장치로부터 데이터를 전송 받기 위한 의료영상이미지 정보와 생체신호의 ROI 추출을 위하여 .NET Framework를 사용하여 QR 서버 모듈을 윈도우 서버 2008 운영체제에서 운영되도록 구현하였다. QR 서버 모듈의 주요기능은 의료영상기기로부터 생성된 DICOM파일을 파싱하고, 식별 ROI 정보를 추출하여 데이터베이스에 저장하여 관리한다. 또한, EMR, OCS와 같은 환자의 의료정보는 기본 정보 및 긴급상황 시 필요한 ROI 정보를 추출하여 QR코드화 하여 관리한다. 또한 생체 계측 기기로 환자 식별에 사용될 PID (patient identification) 와 함께 생체 정보를 전송 받을 경우 생체 정보의 크기에 따라 이를 해당 환자의 ROI와 함께 QR코드화 하여 관리하며, 생체 정보 파일 또한 저장하여 관리한다. 전송받은 생체정보가 QR코드로 변환할 최대 사이즈 이상일 경우 서버를 통해 생체정보에 접근할 수 있는 URL 정보를 QR코드화 한다. 또한 QR 코드 형태로 제공되는 정보는 .NET 프레임워크가 설치된 PC와 Android기반의 스마트 단말기상에 뷰어 프로그램을 통해 확인함으로 인증된 클라이언트만이 관련 정보를 확인할 수 있도록 하였다. 끝으로 응용 서비스의 수행결과를 통해 기존 의료영상정보와 생체신호 그리고 환자의 건강정보가 통합되어 의료현장에서 적용하는데 적합한 의료정보 서비스를 제공함을 보였다.

한국 산맥론(II): 한반도 '산줄기 지도'의 제안 (Discussions on the Distribution and Genesis of Mountain Ranges in the Korean Peninsular (II) : The Proposal of 'Sanjulgi-Jido(Mountain Ridge Map)‘)

  • 박수진;손일
    • 대한지리학회지
    • /
    • 제40권3호
    • /
    • pp.253-273
    • /
    • 2005
  • 최근 한국 사회에는 산지의 공간적 연속성을 파악하고자 하는 사회적인 요구가 높다. 이 연구는 이러한 사회적 요구를 수용하면서 한반도의 산지와 유역분수계의 공간적 특징을 효율적으로 표현할 수 있는 '산줄기 지로'의 개념을 제시하는 것이 목적이다. '산줄기 지도'란 지표면에서 일정한 고도를 가지면서 산으로 인식될 수 있는 지점들을 연결한 선을 표시한 지도이다. 이 연구에서는 먼저 우리 사회에서 전통적인 산지 인식체계로 알려져 있는 백두대간 체계가 한반도의 산지특성과 유역분수계를 얼마나 정확하게 설명하고 있는지 에 대한 검증을 실시하였다 백두대간 체계는 유역분수계의 특성을 파악하거나 산지의 연속성을 명확하게 제시하는 목적에 사용되기에는, 1)유역분수계 구분의 대표성 결여, 2)유역분수계 표현의 부정확성, 3) 산지 표현의 대표성 결여, 그리고 4) 지정학적 측면에서의 문제점 등을 안고 있다. 이러한 문제점들을 극복하기 위해 한반도의 산지와 유역분수계의 공간적 분포 특성을 정량적으로 분석하였다. 그 결과를 토대로 한반도의 산지 분포를 유역분수계의 관점 에서 계층화하여 산줄기 지도를 제시하였다. 제시된 산줄기 지도에서는 한반도에서 유역 면적이 $5,000km^2$ 이상 되는 유역분지의 분수계 중에서, 고도가 100m 이상이 되는 지점들을 연결한 선을 1차 산줄기로 규정하였다. 그 다음 차수의 산줄기들은 기준 유역면적을 매 차수마다 반분하여 산줄기를 그릴 수 있도록 설계하였다. 이 과정에서 각 차수의 산줄기 가 표현할 수 있는 각종 지형학적 특성을 제시하는 경험공식들을 개발하였다. 이러한 과정을 통해 한반도 전체 산줄기 의 분포와 특성을 필요한 목적과 표현하려는 지도의 축적에 따라 계층적으로 표현할 수 있는 토대를 마련하였다. 이 지도는 유역분수계에 근거했다는 점에서 산경표의 산줄기 체계와 유사성을 지니고 있으나, 근대 지형학의 관점에서 산지의 규모와 연속성을 보다 체계적으로 해석한 것이다. 제시된 산줄기 체계는 산지의 형성작용과 그 과정을 설명하는 교육적인 모형인 산맥체계와 뚜렷이 구별된다는 점을 유념할 필요가 있다.