• 제목/요약/키워드: 컴퓨터 모델

검색결과 5,786건 처리시간 0.029초

웹 표준으로 변경 시 발생하는 웹 페이지 보안 체크 모델 제안 (Proposal of a web page security inspection model that occurs when changing to a web standard)

  • 원희연;김재웅;이윤열;채의근;정영석
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.85-86
    • /
    • 2023
  • ActiveX와 같은 플러그인으로 돌아갔었던 웹 페이지들은 보안 취약성과 인터넷 익스플로어(IE)의 서비스 종료로 인하여 많은 웹 브라우저들이 플러그인 제거 사업을 진행하였다. 하지만 웹 표준으로 전환하였을 때 생기는 웹 호환성과 보안 문제들이 발생하였다. 이를 해결하고자 호환성과 보안 문제를 훈련 시킨 클라우드 서버를 이용하여 미리 파악하고 진단할 수 있는 웹 페이지 보안 체크 모델을 제안한다. 본 논문에서 제안한 모델을 적용한다면, 웹의 표준 및 호환성과 보안 문제에 대해 더 빠르게 파악하는데 도움을 줄 수 있을 것이다.

  • PDF

KFREB: 생성형 한국어 대규모 언어 모델의 검색 기반 생성 평가 데이터셋 (KFREB: Korean Fictional Retrieval-based Evaluation Benchmark for Generative Large Language Models)

  • 이정섭;손준영;이태민;박찬준;강명훈;박정배;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.9-13
    • /
    • 2023
  • 본 논문에서는 대규모 언어모델의 검색 기반 답변 생성능력을 평가하는 새로운 한국어 벤치마크, KFREB(Korean Fictional Retrieval Evaluation Benchmark)를 제안한다. KFREB는 모델이 사전학습 되지 않은 허구의 정보를 바탕으로 검색 기반 답변 생성 능력을 평가함으로써, 기존의 대규모 언어모델이 사전학습에서 보았던 사실을 반영하여 생성하는 답변이 실제 검색 기반 답변 시스템에서의 능력을 제대로 평가할 수 없다는 문제를 해결하고자 한다. 제안된 KFREB는 검색기반 대규모 언어모델의 실제 서비스 케이스를 고려하여 장문 문서, 두 개의 정답을 포함한 골드 문서, 한 개의 골드 문서와 유사 방해 문서 키워드 유무, 그리고 문서 간 상호 참조를 요구하는 상호참조 멀티홉 리즈닝 경우 등에 대한 평가 케이스를 제공하며, 이를 통해 대규모 언어모델의 적절한 선택과 실제 서비스 활용에 대한 인사이트를 제공할 수 있을 것이다.

  • PDF

어체에 따른 초거대언어모델의 한국어 환각 현상 분석 (Empirical Study on the Hallucination of Large Language Models Derived by the Sentence-Closing Ending)

  • 문현석;어수경;서재형;박찬준;허윤아;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.677-682
    • /
    • 2023
  • 초거대 언어모델은 모델의 학습 없이 학습 예시만을 입력에 추가함으로써 목표하는 작업을 수행한다. 이런 방식은 상황 내 학습 (In-Context Learning, ICL)이라 불리며, 초거대 언어모델 활용의 사실상의 표준으로 사용되고 있다. 하지만 이러한 모델은, 환각현상 등 사용상의 한계가 발생하는 상황이 다수 발생한다는 연구 결과가 나오고 있다. 본 연구에서는 초거대언어모델을 한국어 작업에서 사용하는 경우, 매우 간단한 수준의 종결어미 변환만으로도 성능 편차가 매우 크게 발생함을 확인하였다. 우리는 이에 대한 분석을 통해, 학습 예시의 어체와 추론 대상의 어체의 변환에 따라 초거대언어모델의 효용성이 크게 변함을 발견하고 이에 대해 분석한다. 나아가 우리는 본 실험 결과를 바탕으로, 어체에 대한 일관성이 유지된 형태의 한국어 데이터 구축이 이루어져야 함을 제안한다.

  • PDF

다목적 실용위성 3호 탑재컴퓨터 설계 모델 관한 연구 (A study of On Board Computer Design Model for the KOMPSAT3)

  • 조영호;이한석;심재선
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 제36회 하계학술대회 논문집 D
    • /
    • pp.3028-3030
    • /
    • 2005
  • 본 논문에서는 다목적 위성 3호용 탑재 컴퓨터 개발을 위한 DM 설계모델을 기술하였다. 기존의 2호기에서 프로세서 모델이 186에서 386으로 변환 것 이외 모든 내부구조가 비슷하였으나 3호기는 위성의 전체적인 성능을 향상시키기 위하여 프로세서와 내부 인터페이스버스 및 모든 구조를 새로운 설계 개념을 도입하여 국내독자 모델을 개발하고자 한다. 그럼으로 본 논문은 초기 설계모델(DM)의 검토를 통하여 향후 비행 모델개발가능성을 파악하는 근거를 제시하였다.

  • PDF

RDF 모델을 나타내는 Petri Net 모형 구축 (Construction of a Petri Net Model for a RDF Model)

  • 임재걸;이강재;정승환;심문주
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제38차 하계학술발표논문집 16권1호
    • /
    • pp.11-16
    • /
    • 2008
  • 본 논문은 온톨로지(ontology) 작성에 사용되는 RDF(Resource Description Framework) 모델을 CPN(Colored Petri Net) 모델로 변환하여 표현하는 방법을 제안하고, 페트리 넷 시뮬레이션으로 RDF의 의미를 해석하여 RDF 질의문에 답할 수 있음을 보인다. 또한, 어떠한 RDF 모델도 CPN 모델로의 변환이 가능하다는 제안 방법의 완전성과 무결성을 소개하고, 제안한 방법으로 구축된 CPN 모델에서 RDF 질의에 대해 정확하게 결과를 구하는 방법을 제시한다.

  • PDF

거대언어모델에 대한 원자력 안전조치 용어 적용 가능성 평가 (A Training Feasibility Evaluation of Nuclear Safeguards Terms for the Large Language Model (LLM))

  • 윤성호
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.479-480
    • /
    • 2024
  • 본 논문에서는 원자력 안전조치 용어를 미세조정(fine tuning) 알고리즘을 활용해 추가 학습한 공개 거대 언어모델(Large Language Model, LLM)이 안전조치 관련 질문에 대해 답변한 결과를 정성적으로 평가하였다. 평가 결과, 학습 데이터 범위 내 질문에 대해 학습 모델은 기반 모델 답변에 추가 학습 데이터를 활용한 낮은 수준의 추론을 수행한 답변을 출력하였다. 평가 결과를 통해 추가 학습 개선 방향을 도출하였으며 저비용 전문 분야 언어 모델 구축에 활용할 수 있을 것으로 보인다.

  • PDF

항로표지 고장예측 서비스를 위한 기계학습 모델 연구

  • 김환;정수환;임성수
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2022년도 춘계학술대회
    • /
    • pp.95-97
    • /
    • 2022
  • 다양한 소스에서 수집되고 연동되는 항로표지 상태 데이터에서의 이상탐지는 항로표지의 고장예측에 있어서 중요한 역할을 한다. 이 연구에서는 항로표지 고장예측 서비스를 위해 상태 데이터를 모델링하고 분석할 수 있는 기계학습 모델의 연구 방법을 소개한다.

  • PDF

폐쇄된 다중 클래스 시스템에 대한 신속한 성능 시뮬레이션 모델 (Agile Performance Simulation Model for a Closed Multi-class System)

  • 김용수
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.11-16
    • /
    • 2009
  • 큐(queuing) 이론은 전화회선 수를 예측하기 위해 1917년 Erlang에 의해 도입된 이후 1960년대 말이 되어서야 Scherr를 필두로 컴퓨터 시스템의 성능 분석에 적용되기 시작하였다. 2000년대 들어 인터넷의 팽창 동 IT기술의 발달로 비즈니스 환경이 속도 중심으로 바뀌면서 시스템 분석가들도 사용자의 IT서비스 만족도를 충족시키기 위해 컴퓨팅 환경 분석 및 예측을 신속히 수행할 필요가 생겼다. 또한 컴퓨터 장비 가격은 급격히 하락하고 성능은 증가하는 상황에서 컴퓨터의 성능을 분석하여 개선하기 보다는 새로운 장비를 도입하여 성능을 향상시키려 함으로서 비용의 낭비는 물론 현 시스템의 용량과 성능도 파악하지 못하고 있다. 그러므로 많은 시간을 요하는 자세하고 정확한 시뮬레이션 모델 보다는 때로는 조악하지만 신속한 모델이 필요할 수도 있다. 본 논문에서는 측정된 성능 데이터를 기초로 Menasce가 제시한 분석적 모델을 검토하고 ARENA를 이용하여 시뮬레이션 모델을 구축하여 검정함으로써 개략적이지만 신속한 성능 분석 및 예측 시뮬레이션 모델을 제시하고자 한다.

사전 학습된 Transformer 언어 모델의 이종 언어 간 전이 학습을 통한 자원 희소성 문제 극복 (Cross-Lingual Transfer of Pretrained Transformers to Resource-Scarce Languages)

  • 이찬희;박찬준;김경민;오동석;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.135-140
    • /
    • 2020
  • 사전 학습된 Transformer 기반 언어 모델은 자연어처리 시스템에 적용되었을 시 광범위한 사례에서 큰 폭의 성능 향상을 보여준다. 여기서 사전 학습에 사용되는 언어 모델링 태스크는 비지도 학습에 속하는 기술이기 때문에 상대적으로 데이터의 확보가 쉬운 편이다. 하지만 몇 종의 주류 언어를 제외한 대부분 언어는 활용할 수 있는 언어 자원 자체가 희소하며, 따라서 이러한 사전 학습 기술의 혜택도 누리기 어렵다. 본 연구에서는 이와 같은 상황에서 발생할 수 있는 자원 희소성 문제를 극복하기 위해 이종 언어 간 전이 학습을 이용하는 방법을 제안한다. 본 방법은 언어 자원이 풍부한 언어에서 학습된 Transformer 기반 언어 모델에서 얻은 파라미터 중 재활용 가능한 부분을 이용하여 목표 언어의 모델을 초기화한 후 학습을 진행한다. 또한, 기존 언어와 목표 언어의 차이를 학습하는 역할을 하는 적응층들을 추가하여 이종 언어 간 전이 학습을 돕는다. 제안된 방법을 언어 자원이 희귀한 상황에 대하여 실험해본 결과, 전이 학습을 사용하지 않은 기준 모델 대비 perplexity와 단어 예측의 정확도가 큰 폭으로 향상됨을 확인하였다.

  • PDF

기계 요약의 개체명 사실 수정을 위한 다중 작업 학습 방법 제안 (Multi-task learning for entity-centric fact correction on machine summaries)

  • 신정완;노윤석;박상헌;오영선;박세영
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.124-130
    • /
    • 2021
  • 기계요약의 사실 불일치는 생성된 요약이 원문과 다른 사실 정보를 전달하는 현상이며, 특히 개체명이 잘못 사용되었을 때 기계요약의 신뢰성을 크게 훼손한다. 개체명의 수정을 위해서는 두 가지 작업을 수행해야한다. 먼저 요약 내 각 개체명이 올바르게 쓰였는지 판별을 해야하며, 이후 잘못된 개체명을 맞게 고치는 작업이 필요하다. 본 논문에서는 두 가지 작업 모두 각 개체명을 문맥적으로 이해함으로써 해결할 수 있다고 가정하고, 이에 따라 두 작업에 대한 다중 작업 학습 방법을 제안한다. 제안한 방법을 통해 학습한 모델은 생성된 기계요약에 대한 후처리 교정을 수행할 수 있다. 제안 모델을 평가하기 위해 강제적으로 개체명을 훼손시킨 요약데이터와 기계 요약 데이터에 대해서 성능을 평가 하였으며, 다른 개체명 수정 모델과 비교하였다. 제안모델은 개체명 수준에서 92.9%의 교정 정확도를 달성했으며, KoBART 요약모델이 만든 기계요약의 사실 정확도 4.88% 포인트 향상시켰다.

  • PDF