• Title/Summary/Keyword: 언어 융합

Search Result 558, Processing Time 0.028 seconds

Lacanian Psychoanalysis and The Labor of Language (라캉 정신분석과 언어의 노동)

  • Lee Dong Seok
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.5
    • /
    • pp.421-430
    • /
    • 2023
  • Humans before modern society were concerned about "what kind of being the humans are." Human beings who have gone through this age of thinking incorporate their existence into capitalism. Marx (Karl Heinrich Marx; 1818~1883) asks 'what kind of job do you live in?' After that, we get into the modern society, in which human beings ask themselves questions about the hidden existence of the subject of desire. A hidden being is an existence concealed by language. We will diagnose this as language labor and develop a critical mind. We are both the subject of language and those of language labor. Jacques Lacan(Jacques Lacan;1901~1981)'s psychoanalysis pays attention to the subject who escapes from the labor of language. In the remaining place of language labor, there are invisible ethics. In this text, we'd like to reveal the hidden meaning of the subject who resists the labor of language.

Fuzzy OWL을 이용한 사용자 Context의 표현 및 추론

  • Son, Jong-Su;Jeong, In-Jeong
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2007.11a
    • /
    • pp.451-456
    • /
    • 2007
  • 유비쿼터스 컴퓨팅 환경을 구축하기 위해서는 사용자 및 주변 상황에 관한 인지기술이 필수적이다. 이에 따라 이기종 분산형 시스템에서 언어와 기종에 영향을 받지 않고 사용자 Context를 인지하고 표현하는 문제는 해결해야할 중요한 과제로 대두되었다. 이에 따라, 본 논문에서는 이 과제를 해결하기 위하여 시맨틱 웹 기술 및 퍼지 개념을 이용하여 사용자 Context를 기술하는 것을 제안한다. 온톨로지는 컴퓨터가 정보자원의 의미를 파악하고 자동적으로 처리할 수 있도록 고안된 지식표현 언어이므로 이기종 시스템 하에서의 사용자 Context를 표현하는데 적합하다. 한편, 사용자가 접할 실세계의 환경은 일반집합(Crisp Set)으로 표현하기 힘들기 때문에 본 논문에서는 퍼지개념과 표준 웹 온톨로지 언어 OWL이 융합된 Fuzzy OWL언어를 사용했다. 본 논문에서 제안하는 방법은 Context를 Fuzzy OWL로 표현하기 위하여 먼저 사용자가 접한 환경정보들을 수치로 표현한다. 그리고 이를 OWL로 기술하며 OWL로 표현된 사용자 Context를 Fuzzy OWL로 변환한다. 마지막으로 퍼지 개념이 포함된 사용자 Context를 이용하여 자동적인 상황인지가 가능한지 여부를 퍼지 추론 엔진인 FiRE를 사용하여 실험한다. 본 논문에서 제시한 방법을 사용하면 이기종 분산시스템에서도 사용할 수 있는 형태로 Context를 기술할 수 있다. 그리고 기술된 Context를 기반으로 현재 사용자가 접한 환경의 상태를 추론할 수 있다. 또한 퍼지 기술 로직 언어(Fuzzy Description Logic)기반 추론기인 FiRE를 이용하여 이를 검증한다.

  • PDF

Similar Software Code Detection Using Side Channel Leakage in Microcontrollers (단일 부채널 전력 파형을 사용한 마이크로컨트롤러 상에서 소프트웨어 표절 탐지)

  • Kim, Hyun-Jun;Jang, Kyung-Bae;Kim, Kyung-Ho;Seo, Hwa-Jeong
    • Annual Conference of KIPS
    • /
    • 2020.05a
    • /
    • pp.150-153
    • /
    • 2020
  • 부채널 정보를 사용하여 마이크로 컨트콜러 상에서 표절 된 코드를 탐지하는 새로운 방법을 제시한다. 제안 기법은 애플리케이션을 보호하기 위해 추가로 워터 마킹 할 필요가 없이 코드를 실행하는 마이크로 컨트롤러의 유출데이터를 워터 마크로서 사용 할 수 있다. 두 가지 다른 구현의 각각 하나의 부채널 파형에 대한 절대 상관 계수를 기반으로 분석 한다. 어셈블리 언어로 작성된 다양한 테스트 응용 프로그램을 사용 Xmaga128 마이크로 컨트롤러에서 평가하였다. 제안 기법은 어셈블리 코드를 수정하는 공격자에게도 강력하며 코드에 대한 정보와 입력에 대한 접근이 불가능 하여도 탐지가 가능하다.

Design of Python Block and Text Co-coding Platform for Artificial Intelligence Convergence in Vocational Education (인공지능 융합 직업 교육을 위한 파이썬 블록과 텍스트 공동 코딩 플랫폼 설계)

  • Lee, Se-Hoon;Kim, Yeon-Woo;Hong, Seung-Min
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.231-232
    • /
    • 2022
  • 본 논문에서는 직업 교육 분야에 인공지능 융합 교육을 위한 파이썬 블록과 텍스트 동시 코딩 플랫폼을 설계하였다. 플랫폼에 코딩 언어로는 데이터 분석과 머신러닝의 다양한 라이브러리를 지원하고 있는 파이썬으로 하며, 직업 교육의 영역 전문가가 쉽게 직무 기능 파이썬 블록 모듈을 만들어 추가하고 커스터마이징을 할 수 있는 아키텍처를 갖고 있다. 제안한 플랫폼을 활용한 인공지능 융합 직업 분야로 바이오와 기계공학 분야의 블록 모듈을 추가하고 실습 예제를 만드는 과정을 보여 플랫폼의 유용성과 효율성을 보였다.

  • PDF

Detection of sexuality and violence in Korean news article title based on KoBERT mode (KoBERT 모델 기반 한국어 뉴스 기사 제목 선정성 및 폭력성 검출)

  • Min-Ji Kim;Hwan-Do Kim;Ji-Min Bong;Dae-Hwan Kim
    • Annual Conference of KIPS
    • /
    • 2023.05a
    • /
    • pp.570-571
    • /
    • 2023
  • 최근 선정적이고 폭력적인 뉴스 기사 제목의 여과 없는 노출로 인하여 유해한 언어 접촉이 빈번히 이루어지고 있다. 자극적인 단어에 지속적으로 노출되는 것은 인지 능력에 부정적 영향을 주는 것으로 알려져 있다. 따라서 이를 사전에 판별하여 정보를 수용하는 것이 필요하다. 본 논문에서는 KoBERT를 기반으로 한국어 뉴스 기사 제목에서 선정성과 폭력성을 검출하고자 한다. 학습을 위한 뉴스 기사 제목들은 인터넷에서 무작위로 총 9,500개의 데이터를 크롤링 하여 수집하였고, 모델의 말단에 NLNet을 추가하여 문장 전체의 관계를 학습했다. 그 결과 선정성 및 폭력성을 약 89%의 정확도로 검출하였다.

Infrastructure Proposal for the Safe Implementation of Private LLMs in SME: sLLM and Cloud Based Approach (중소기업에서의 안전한 프라이빗 LLM 도입을 위한 인프라 제안: sLLM 과 클라우드 기반으로)

  • Jiwon Hong;Eunseon Ryu;Jiyoon Baek;Seoyeong Kim;Jungjoo Oh
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.350-351
    • /
    • 2024
  • 최근 몇 년 간 대규모 언어 모델의 발전과 보급이 비즈니스 운영 통합을 가속화하고 있다. 그러나 내부 데이터 유출과 같은 문제로 많은 기업들이 보다 안전한 프라이빗 LLM 을 도입하려는 움직임을 보이고 있다. 대기업과 공공기관은 높은 비용을 부담하여 온프레미스 솔루션을 선택할 수 있으나, 중소 기업 혹은 개인에게는 예산과 기술적인 한계가 존재하기 때문에 별도의 인프라가 요구된다. 이에, 본 연구는 클라우드 서비스와 네트워크 망분리를 사용하여 중소기업이 내부 데이터를 안전하게 관리하며 LLM 을 도입할 수 있는 방안을 제시하며, RAG 모델을 통한 기술적 향상 가능성 또한 제시한다.

The Effects of 'Activity Program for Effective Storytelling' on Empathic Ability and Language Teaching Efficacy of Story Grandmother ('효과적인 이야기전달을 위한 활동 프로그램'이 이야기할머니와 유아 간의 공감능력 및 언어교수효능감에 미치는 영향)

  • Kim, Hyung-Sook;Hong, Myung-Soon;Kim, Rae-Eun
    • Journal of Convergence for Information Technology
    • /
    • v.10 no.12
    • /
    • pp.245-255
    • /
    • 2020
  • The purpose of this study was to investigate effects of 'activity program for effective storytelling' on the empathic ability and language teaching efficacy of a story grandmother. The subjects were 51 beautiful story grandmothers in Gangwon, Gyeongsangdo and Seoul. The research tools used the emotional empathy scale of Jeon(2003), and language teaching efficacy scale of Kim and Lee(2011). As for the research procedure, from March 06 to July 27, 2017, an 'activity program for effective storytelling' was conducted. For data analysis, a t-test of the corresponding sample was conducted to find the difference between the pre- and post-scores of the two variables. As a result of the study, first, the cognitive empathy ability between the story grandmother and the young children after applying the 'activity program for effective storytelling' was higher than that of the dictionary. Second, the language teaching efficacy between the story grandmother and the young children after applying the 'activity program for effective storytelling' was higher than that of the dictionary. Therefore, the 'activity program for effective storytelling' suggests that there is a positive effect on improving the cognitive empathic ability and language teaching efficacy of the story grandmothers.

Scenario Generation Assistance System Using GPT-3 (GPT-3를 활용한 시나리오 생성 보조 시스템)

  • Jo, Dongha;Jeon, Isle;Moon, Mikyeong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.503-504
    • /
    • 2022
  • 최근 자연어 처리 분야에서 언어 모델을 활용하여 문장 생성에 관한 연구가 이루어지고 있다. 기존 언어 모델을 활용하여 생성된 시나리오는 텍스트를 학습하여 활용하는 것 외에는 작가의 의도를 반영하는 것에 한계가 존재했고 문맥에 일관성 없는 모습을 보여주었다. 시나리오를 작성하는 것은 작가가 흐름을 주도하며 작업해야 하는 내용이다. 본 논문에서는 GPT-3 기반 언어 모델을 기반으로 다양한 시나리오 문장을 생성하여 작가가 선택하거나 원하는 문장을 직접 입력하는 등 작가의 의도에 부합하는 시나리오를 생성하는 보조 시스템을 제안한다. 본 연구를 통해 시나리오 생성을 포함한 문장 생성 분야의 보조 도구로 활용하여 작가의 의도를 반영하는 결과물을 생성하는 것을 목표로 한다.

  • PDF

Gender Bias Mitigation in Gender Prediction Using Zero-shot Classification (제로샷 분류를 활용한 성별 편향 완화 성별 예측 방법)

  • Yeonhee Kim;Byoungju Choi;Jongkil Kim
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.509-512
    • /
    • 2024
  • 자연어 처리 기술은 인간 언어의 이해와 처리에서 큰 진전을 이루었으나, 학습 데이터에 내재한 성별 편향이 모델의 예측 정확도와 신뢰성을 저하하는 주요한 문제로 남아 있다. 특히 성별 예측에서 이러한 편향은 더욱 두드러진다. 제로샷 분류 기법은 기존에 학습되지 않은 새로운 클래스를 효과적으로 예측할 수 있는 기술로, 학습 데이터의 제한적인 의존성을 극복하고 다양한 언어 및 데이터 제한 상황에서도 효율적으로 작동한다. 본 논문은 성별 클래스 확장과 데이터 구조 개선을 통해 성별 편향을 최소화한 새로운 데이터셋을 구축하고, 이를 제로샷 분류 기법을 통해 학습시켜 성별 편향성이 완화된 새로운 성별 예측 모델을 제안한다. 이 연구는 다양한 언어로 구성된 자연어 데이터를 추가 학습하여 성별 예측에 최적화된 모델을 개발하고, 제한된 데이터 환경에서도 모델의 유연성과 범용성을 입증한다.

A Survey on Deep Learning-based Pre-Trained Language Models (딥러닝 기반 사전학습 언어모델에 대한 이해와 현황)

  • Sangun Park
    • The Journal of Bigdata
    • /
    • v.7 no.2
    • /
    • pp.11-29
    • /
    • 2022
  • Pre-trained language models are the most important and widely used tools in natural language processing tasks. Since those have been pre-trained for a large amount of corpus, high performance can be expected even with fine-tuning learning using a small number of data. Since the elements necessary for implementation, such as a pre-trained tokenizer and a deep learning model including pre-trained weights, are distributed together, the cost and period of natural language processing has been greatly reduced. Transformer variants are the most representative pre-trained language models that provide these advantages. Those are being actively used in other fields such as computer vision and audio applications. In order to make it easier for researchers to understand the pre-trained language model and apply it to natural language processing tasks, this paper describes the definition of the language model and the pre-learning language model, and discusses the development process of the pre-trained language model and especially representative Transformer variants.