• Title/Summary/Keyword: 오디오 요약

Search Result 22, Processing Time 0.021 seconds

Intelligent Korean Sentence Summarization Technique Combining KoBART and GSG (KoBART와 GSG를 결합한 지능형 한국어 문장 요약 기법)

  • Hyeonsol Sim;Hyeonbin Park;Jeeyoung Park;Jaewon Sin;Youngjong Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.698-700
    • /
    • 2023
  • 본 논문에서는 한국어 데이터와 모델링, 추가 평가 지표를 통해 Text Summarization 분야에서 한국어로 좋은 성능을 내기 위한 방식을 제안한다. KoBART의 크기를 키우고 PEGASUS의 GSG를 사용하는 KoBART-GSG 모델을 제안한다. 이때 ASR 모델을 사용하여 한국어 데이터를 구축하고 추가 학습을 진행한다. 또한, 생성된 요약문과 원문에서 Attention 기법으로 키워드와 핵심 문장을 추출하여 지능형 텍스트를 구성하는 새로운 방식을 제안한다. ASR Open API와 제안한 방식을 사용하여 오디오 파일을 텍스트로 변환하고 요약하는 강의나 회의 등 학계와 산업에서 사용할 수 있는 서비스를 제공한다.

Review of Standard Sound Quality Assessment Methods for the Transmitted and Processed Sounds (음질 평가법의 표준과 연구 동향 - 전송 처리음 분야)

  • Oh, Wongeun
    • The Journal of the Acoustical Society of Korea
    • /
    • v.32 no.3
    • /
    • pp.214-226
    • /
    • 2013
  • Assessing the quality of audio signals is an important consideration in making high quality sounds and various methods have been developed. This paper provides a general framework of sound quality and a technical overview of the international standard methods which are described in ITU-T, ITU-R, IEC and ANSI Recommendations in the speech intelligibility, speech quality, and audio quality areas. In addition, some recent findings and future works are included.

Investigating an Automatic Method for Summarizing and Presenting a Video Speech Using Acoustic Features (음향학적 자질을 활용한 비디오 스피치 요약의 자동 추출과 표현에 관한 연구)

  • Kim, Hyun-Hee
    • Journal of the Korean Society for information Management
    • /
    • v.29 no.4
    • /
    • pp.191-208
    • /
    • 2012
  • Two fundamental aspects of speech summary generation are the extraction of key speech content and the style of presentation of the extracted speech synopses. We first investigated whether acoustic features (speaking rate, pitch pattern, and intensity) are equally important and, if not, which one can be effectively modeled to compute the significance of segments for lecture summarization. As a result, we found that the intensity (that is, difference between max DB and min DB) is the most efficient factor for speech summarization. We evaluated the intensity-based method of using the difference between max-DB and min-DB by comparing it to the keyword-based method in terms of which method produces better speech summaries and of how similar weight values assigned to segments by two methods are. Then, we investigated the way to present speech summaries to the viewers. As such, for speech summarization, we suggested how to extract key segments from a speech video efficiently using acoustic features and then present the extracted segments to the viewers.

A Scheme for News Videos based on MPEG-7 and Its Summarization Mechanism by using the Key-Frames of Selected Shot Types (MPEG-7을 기반으로 한 뉴스 동영상 스키마 및 샷 종류별 키프레임을 이용한 요약 생성 방법)

  • Jeong, Jin-Guk;Sim, Jin-Sun;Nang, Jong-Ho;Kim, Gyung-Su;Ha, Myung-Hwan;Jung, Byung-Heei
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.8 no.5
    • /
    • pp.530-539
    • /
    • 2002
  • Recently, there have been a lot of researches to develop an archive system for news videos that usually has a fixed structure. However, since the meta-data representation and storing schemes for news video are different from each other in the previously proposed archive systems, it was very hard to exchange these meta-data. This paper proposes a scheme for news video based on MPEG-7 MDS that is an international standard to represent the contents of multimedia, and a summarization mechanism reflecting the characteristics of shots in the news videos. The proposed scheme for news video uses the MPEG-7 MDS schemes such as VideoSegment and TextAnnotation to keep the original structure of news video, and the proposed summarization mechanism uses a slide-show style presentation of key frames with associated audio to reduce the data size of the summary video.

기술총회상정 단체표준(안) 요약보고

  • 한국정보통신기술협회
    • TTA REPORT
    • /
    • v.4 no.6 s.16
    • /
    • pp.22-27
    • /
    • 1992
  • 한국통신기술협회의 제5차 기술총회가 11월 24일(화) 대한상공회의소 회의실에서 열려 5건의 단체 표준(안)과 2건의 기술보고서(안) 등에 대한 심의를 하였다. 800MHz대 주파수 공용통신 표준(안)을 포함한 5개 표준(안)에 대한 심의를 거친 결과 이들 모두 TTA단체 표준으로 채택키로 확정하였으며 단체 표준으로 채택된 이(안)은 다시 국가권고표준(안)으로써 전기통신 표준심의회에 제안하도록 하는 것에 대해서도 승인하였다. 또한 ''ISDN과 PSTN간의 연동 기술보고서(안)''과 ''데이터 전송 서비스 제공을 위한 PSDN과 ISDN간의 연동 기술보고서(안)''에 대해서도 기술보고서로서 채택할 것을 의결하였다. 이날 기술총회에 상정된 단체 표준(안)은, 1. 협대역 ISDN 화상전화기를 위한 $\cdot$p$\times$64kbit/s에서의 시청각 서비스를 위한 비디오코덱 표준(안) $\cdot$음성주파수의 펄스부호 변조(PCM) 표준(안) $\cdot$64kbit/s 내의 7KHz 음성부호화 표준(안) $\cdot$64kbit/s내의 7KHz 오디오 코덱의 사용에 대한 시스템 측면 표준(안) 2. 패킷 교화 공중데이터망의 비동기형 단말장치 접속 표준(안) 3. 그룹 4 팩시밀리 기능 표준(안) 4. 800MHz대 주파수 공용통신 표준(안) 5. 코드없는 전화기 표준(안) 등이며, 이들 표준(안)과 기술보고서(안)에 대한 발표내용을 간략히 요약 게재한다.

  • PDF

터치 스크린에서의 촉각 기술 동향

  • Im, Jeong-Muk;Lee, Jong-Uk;Park, Jun-Seok
    • Information and Communications Magazine
    • /
    • v.29 no.7
    • /
    • pp.16-24
    • /
    • 2012
  • Apple의 iPod Touch가 등장한 이래로, 다양한 모바일 디바이스에서 터치 인터페이스가 사용자 입력 수단으로서 사용되고 있다. 또한 최근 터치 인터페이스 기술은 터치할 때 사용자에게 실감나는 촉각 피드백을 제공하기 위한 다양한 방법을 시도하고 있다. 촉각 피드백의 유용성은 터치 입력에 대한 즉각적인 피드백, 오디오나 그래픽과 융합하여 사실적이고 직관적인 피드백 제공 등으로 요약할 수 있다. 이러한 장점은 터치 인터페이스 사용에 대한 사용자 경험 (User Experience)을 차별화 할 수 있기 때문에 제품 경쟁력에도 도움이 된다. 본 고에서는 촉각 피드백을 제공하는 햅틱 시스템에 대해 일반적인 내용을 알아보고, 특히 터치 인터페이스를 갖는 모바일 디바이스에서 사용될 수 있는 촉각 제 시 방법 및 촉각 액추에이터의 최근 기술동향에 대해 살펴본다.

Video genre classification using Multimodal features (멀티모달 특징을 이용한 비디오 장르 분류)

  • Jin Sung Ho;Bea Tea Meon;Choo Jin Ho;Ro Yong Man;Kang Kyeongok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2003.11a
    • /
    • pp.219-222
    • /
    • 2003
  • 본 논문에서는 멀티모달(multimodal) 특징을 이용한 비디오 장르 식별 방법을 제안한다. 비디오 장르 식별 기술은 방대한 양의 방송 컨텐츠를 보다 효율적으로 분류할 뿐 아니라 자동적인 비디오 요약을 위한 전처리 과정으로 활용될 수 있는 기술이다. 따라서, 그 필요성 및 중요성이 부각되고 있다. 본 논문에서 제안하고 있는 방법은 MPEG-7의 오디오 및 비주얼 서술자들을 적용하여 멀티모달 특징을 추출하고 여러 가지 방송 비디오 장르(genre)들로 구성된 데이터베이스에서 장르 분류를 위해 설계된 인식기(classifier)를 통한 성능을 평가한다.

  • PDF

A Research on Expandability of Cultural Assets Restoration Blend using Virtual Reality (가상현실을 통한 문화재복원 융합 확장성 연구)

  • Oh, Seung-Hwan
    • Journal of Digital Convergence
    • /
    • v.13 no.8
    • /
    • pp.465-472
    • /
    • 2015
  • The virtual reality technology is currently used classifying functional types such as the observation operation type, the experimental activity type, the learning information type, the field problem-solving type, and other different types, based on the media's characteristics implementing 3D form of multi-sensory information. Using Virtual Reality, the restoration of the 'Doksu Palace' has been grafted onto J. Keller's ARCS model, suggesting a field restoration concept that reenacts the lives of the people that had been in the field with the cultural heritage and history based on a scenario based scene direction. This paper also summarizes 3 different types of implementation of the field restoration assorting multi-scene direction. Certain limitations exist, due to the fact that a completed prototype hasn't been suggested and that a detailed notion of the housing and 3D audio connection has been omitted.

MPEG-I Immersive Audio Standardization Trend (MPEG-I Immersive Audio 표준화 동향)

  • Kang, Kyeongok;Lee, Misuk;Lee, Yong Ju;Yoo, Jae-hyoun;Jang, Daeyoung;Lee, Taejin
    • Journal of Broadcast Engineering
    • /
    • v.25 no.5
    • /
    • pp.723-733
    • /
    • 2020
  • In this paper, MPEG-I Immersive Audio Standardization and related trends are presented. MPEG-I Immersive Audio, which is under the development of standard documents at the exploration stage, can make a user interact with a virtual scene in 6 DoF manner and perceive sounds realistic and matching the user's spatial audio experience in the real world, in VR/AR environments that are expected as killer applications in hyper-connected environments such as 5G/6G. In order to do this, MPEG Audio Working Group has discussed the system architecture and related requirements for the spatial audio experience in VR/AR, audio evaluation platform (AEP) and encoder input format (EIF) for assessing the performance of submitted proponent technologies, and evaluation procedures.

A Survey on Deep Learning-based Pre-Trained Language Models (딥러닝 기반 사전학습 언어모델에 대한 이해와 현황)

  • Sangun Park
    • The Journal of Bigdata
    • /
    • v.7 no.2
    • /
    • pp.11-29
    • /
    • 2022
  • Pre-trained language models are the most important and widely used tools in natural language processing tasks. Since those have been pre-trained for a large amount of corpus, high performance can be expected even with fine-tuning learning using a small number of data. Since the elements necessary for implementation, such as a pre-trained tokenizer and a deep learning model including pre-trained weights, are distributed together, the cost and period of natural language processing has been greatly reduced. Transformer variants are the most representative pre-trained language models that provide these advantages. Those are being actively used in other fields such as computer vision and audio applications. In order to make it easier for researchers to understand the pre-trained language model and apply it to natural language processing tasks, this paper describes the definition of the language model and the pre-learning language model, and discusses the development process of the pre-trained language model and especially representative Transformer variants.