1. 서론
최근 인공지능 분야에서의 연구 및 개발의 주된 화두는 대형 언어모델 기반 생성형 인공지능에 관한 기술이다[1]. 대규모 하이퍼파라미터를 가진 생성형 인공지능은 사용자 요청에 기반해 데이터를 자체적으로 생성하고 처리할 수 있는 능력을 갖추고 있으며, 이에 따라 다양한 분야에서 응용 가능성을 제시하고 있다[2].
생성형 인공지능은 인간과 유사한 방식으로 데이터를 생성하거나 변환하는 능력을 갖춘 인공지능의 한 형태이다. 이러한 시스템은 대개 순환 신경망 및 트랜스포머 아키텍처와 같은 딥러닝 모델을 기반으로 작동하며, 이미지, 음성, 텍스트 등 다양한 데이터 형태를 처리하고 생성하는 기능을 수행한다[3][4][5].
언어 모델 기반의 생성형 인공지능은 생성형 인공지능 분야에서 핵심적인 역할을 차지하고 있다. 이러한 언어 모델은 자연어의 생성과 이해에 활용되며, 텍스트 생성부터 기계 번역, 질의응답 시스템, 텍스트 요약, 분류, 그리고 감정 분석에 이르기까지 다양한 자연어 처리 작업에 사용된다[6]. 머신 러닝과 딥러닝의 지속적인 발전에 따라, 이런 응용 분야의 중요성이 점점 더 커지고 있고, 그 결과로 언어 모델의 활용도가 끊임없이 늘어나고 있다[7].
특히 OpenAI의 ChatGPT 출시 이후 다양한 빅테크 기업에서 자사의 응용 서비스에서 생성형 인공지능을 활용함에 따라 관련 분야의 특허를 조사 및 분석하는 것은 핵심 기술의 발전 방향을 확인하는데 효과적인 방법이 될 수 있다.
본 논문에서는 언어 모델 기반 생성형 인공지능 분야의 특허 동향에 대한 체계적이고 다각도의 분석을 통해 향후 발전 동향을 알아본다. 이 과정에서 언어 모델 기반 생성형 인공지능의 기술 동향을 확인하며, 제시한 언어 모델 기반 생성형 인공지능의 특허 정보를 통해 해당 분야의 기술 발전 방향을 더 정확하게 예측하고자 한다.
2. 생성형 인공지능의 발전 과정
생성형 인공지능은 디지털 기술의 한 분야로써 주목받아 왔다. 그 시작은 기본적인 인공신경망에서부터 시작되었으며, 그 이후 발전을 거치며 현재에 이르렀다.
초기 인공신경망은 주로 분류나 회귀와 같은 문제에 사용되었지만, 네트워크의 깊이를 더하고 구조를 복잡하게 만들며 더 복잡한 데이터의 표현 및 생성이 가능해 졌다. 이러한 발전의 중심에는 Generative Adversarial Networks (GANs)가 있었다. 2014년에 Ian Goodfell ow에 의해 처음 소개된 이 기술은, 생성자와 판별자라는 두 신경망을 경쟁시켜 가며 데이터의 분포를 학습하는 방식을 도입하였다.
또 다른 주요 기술로는 Variational Autoencoders (VAEs)가 있다. 이 기술은 입력 데이터를 효과적으로 압축하고 재생성하는 데 초점을 맞추었으며, 이미지와 같은 데이터의 연속적인 특성을 학습하는 데 효과적이었다.
최근의 발전을 살펴보면, Transformer 및 GPT 아키텍처의 등장이 눈에 띈다. 이 아키텍처는 주로 텍스트 데이터 생성에 효과적이었으며, GPT와 같은 모델은 자연어 처리뿐만 아니라 다양한 생성 작업에서 뛰어난 성능을 보였다.
생성형 인공지능의 가장 최근의 동향으로는 대규모 모델의 등장이 주목받고 있다. 이러한 모델은 광범위한 학습 데이터와 고도화된 아키텍처를 바탕으로, 사람처럼 복잡한 텍스트를 생성하는 능력을 보유하고 있다.
이러한 연구와 발전의 결과로, 생성형 인공지능은 현대 디지털 기술에서 빠질 수 없는 핵심 요소로 자리 잡아가고 있다.
이러한 동향의 심도 있는 분석은 생성형 인공지능 기술의 미래 발전 방향을 예측하고, 기술 트렌드에 빠르게 대응하는데 필수적이다. 특히, 경쟁력 있는 연구와 상업화 전략을 수립하기 위해서는 지속적이고 체계적인 특허 동향 모니터링이 무엇보다 중요하다. 이를 통해 기술의 진화와 산업 내 변화를 선제적으로 파악하고, 적절한 전략을 세울 수 있을 것이다.
3. 생성형 인공지능 기술 관련 특허 동향 분석
본 논문에서는 언어 모델 기반 생성형 인공지능의 특허 동향을 분석하는 데 언어 모델이 가지는 기본적 기술 특성인 데이터 전처리, 모델링, 학습 및 최적화의 3개 분야를 선정하였다. 그리고 특허의 활용 특성 및 추가적인 관련 기술의 발전 방향을 분석하기 위해 생성형 인공지능 기반의 응용 분야를 선정하였다. 그리고 마지막으로 현재 언어 모델 기반 생성형 인공지능에서 가장 문제가 되고 있는 할루시네이션 관련 분야를 살펴본다[8][9].
3-1 기술 분류 과정
먼저 데이터 전처리와 관련된 특허 분야에서는 언어 모델에 데이터를 입력하기 전에 수행되는 데이터 클렌징, 정규화, 토큰화 등과 관련된 기술에 대한 특허를 중심으로 조사하였다[10]. 다음으로, 모델링과 관련된 특허 분야에서는 LSTM, Transformer 등 언어 모델의 구조 설계에 관련된 특허를 조사하였다[11]. 또한 학습 및 최적화에 관련된 특허 분야에서는 하이퍼파라미터 최적화와 파인튜닝과 같은 언어 모델의 성능을 향상하는 기술에 대한 특허를 조사하였다[12]. 그리고 응용 분야와 관련된 특허 분야에서는 챗봇, 기계 번역부터 감정분석, 텍스트 생성 및 요약 등 다양한 응용 분야에서 활용될 수 있는 특허를 조사하였다[13]. 마지막으로 할루시네이션 관련된 특허 분야에서는 해당 분야에서 직면한 핵심적인 문제들과 그 해결 방법에 초점을 맞추어 분석하였다[14].
이러한 세부 분류는 표 1과 같이 언어 모델 기반 생성형 인공지능 기술분류체계로 정리되었으며, 이를 통해 언어 모델 기반 생성형 인공지능의 특허 동향을 분석하였다.
표 1. 언어 모델 기반 생성형 인공지능 기술분류체계
Table 1. Language model-based generative artificial intelligence technology classification system
언어 모델 기반 생성형 인공지능 기술이 빠르게 발전하는 가운데, 기술적 방향성과 경쟁 구도를 파악하기 위해서는 특허 동향을 이해하는 것이 중요하다. 이를 깊게 이해하기 위해, 주요 지역에서의 특허 출원량에 초점을 맞춰 탐구하였다. 세계지적재산권기구(WIPO), 미국특허청(USPTO), 한국지식재산권청(KIPO), 그리고 유럽특허청(EPO)와 같은 대형 특허청의 광범위한 데이터베이스와 연간 통계 보고서를 활용하여, 한국, 미국, 유럽에서의 특허 출원량을 조사하였다. 이러한 탐구 방법은 이들 지역이 기술 분야에서 얼마나 중요한지 강조하며, 더욱 상세한 통계 분석을 위한 발판을 마련하였다. 언어 모델 기반 생성형 인공지능 기술 분야의 특허 분석을 위해 한국, 미국, 유럽 총 2,045건의 특허를 대상으로 통계분석을 진행하였다.
3-2 국가별 연도별 출원 동향
그림 1과 같이, 국가별 특허청의 출원 건을 기준으로 연도별 특허 출원 추이를 살펴봤을 때, 2008년부터 2021년까지 특허 출원이 전반적으로 증가하는 추세를 보였다. 이는 언어 모델 기반 생성형 인공지능기술 분야에서의 연구 및 개발 활동이 확대되고 있음을 시사한다.
그림 1 . 언어 모델 기반 생성형 인공지능 주요 출원국 연도별 특허 동향 및 중분류별 주요 출원국 연도별 특허 동향
Fig. 1. Language Model-Based Generative AI Patent Trends by Year for Top Filing Countries and Patent Trends by Year for Top Filing Countries by Intermediate Classification
국가별 특허 점유 현황을 살펴본 결과, 미국(USPTO)에서는 1,059건(52%)의 특허가 출원되었으며, 한국(KIPO)에서는 709건(35%)의 특허가, 유럽(EPO)에서는 277건(13%)의 특허가 출원되었다.
국가별 특허 점유 현황을 살펴본 결과, 미국(USPTO)에서는 1,059건(52%)의 특허가 출원되었으며, 한국(KIPO)에서는 709건(35%)의 특허가, 유럽(EPO)에서는 277건(13%)의 특허가 출원되었다. 이로써, 이 기술 분야에서는 미국과 한국이 주요한 특허 출원 국가임을 확인할 수 있다.
또한, GAN, 알파고와 같은 인공지능 분야의 혁신적인 프로그램이 개발되면서 인공지능 기술의 대중화가 가속화되고, 이에 따라 특허 출원 또한 증가하는 추세를 보였다[15].
결론적으로, 본 연구에서는 언어 모델 기반 생성형 인공지능 기술 분야의 특허 출원 동향을 분석하였다. 연구 결과를 통해 이 분야에서의 연구 및 기술개발 활동이 꾸준히 증가하고 있으며, 미국과 한국이 이 분야에서 주요한 역할을 하고 있음을 확인하였다. 또한, 새로운 혁신적인 프로그램들의 개발과 인공지능 기술의 대중화가 가속화되면서 특허 출원 또한 증가하고 있음을 관찰할 수 있었다.
그림 1에서 데이터 전처리 기술 분야는 분석 초기부터 현재까지 지속적인 특허출원 경향을 보인다. 특히 GPT-3의 영향으로 인해 2021년도의 특허 출원이 급격하게 상승한 것으로 보인다[16].
모델링 기술 분야 중 특히 자연어 처리 분야에서 Transformer 모델이 등장한 이후로 해당 기술과 관련된 특허 출원이 지속해서 증가하고 있다.
학습 및 최적화 기술 분야 역시 지속적인 특허출원으로 우상향 그래프를 보인다. 데이터 전처리 기술 분야와 마찬가지로 2021년도를 기점으로 관련 특허 출원이 기하급수적으로 증가했으며 하이퍼파라미터 튜닝기법의 발전으로 다양한 방법론이 제시되고 있다[17].
응용 분야와 관련된 특허 동향은 모델링 분야와 비슷한 양상을 보이고 있으며, 이러한 현상은 주로 언어 모델기술의 발전과 관련이 있다. 최근 몇 년 동안 GPT-3, BERT, 및 기타 언어 모델들이 대규모 데이터와 강력한 학습 알고리즘을 기반으로 훈련되어 자연어 처리 능력이 크게 향상되었다[18]. 이러한 언어 모델은 다양한 언어처리 작업에서 우수한 성능을 보이며, 이에 따라 다양한 응용 분야에서의 활용 가능성이 크게 확대되었다.
따라서, 언어 모델의 발전과 응용 분야의 다양한 활용 가능성이 함께 작용하여 그림 1에서와 같이 관련 특허 출원이 계속해서 증가하고 있는 것으로 보인다. 본 논문에서 말하는 도전과제란, 언어모델 기반 생성형 인공지능 분야에서 나타나는 다양한 문제와 어려움을 의미한다. 이러한 도전과제로는 환각 문제와 블랙박스 문제, 데이터 품질과 다양성, 윤리 및 안전성 등이 주요하게 다루어지며, 이를 극복하기 위한 연구가 활발히 진행 중인 것을 알 수 있다.
그림 2에서 확인할 수 있는 바와 같이 언어 모델 기반 생성형 인공지능 관련주요 국가인 미국, 한국, 유럽 모두 일관되게 특허 출원이 증가하고 있음을 확인할 수 있어, 주요 핵심 기술로써 활발한 연구 및 권리 확보가 이루임을 확인할 수 있다.
그림 2. 언어 모델 기반 생성형 인공지능 주요 출원국별 연도별 특허 동향
Fig. 2. Language Model-Based Generative AI Patent Trends by Year by Top Filing Countries
주요 출원국의 연도별 특허 출원 동향을 살펴본 결과, 각 국가에서는 다른 동향이 관측된다. 그림 3과 같이 한국에서는 2019년 이후로 내국인의 특허 출원이 지속적으로 증가하는 반면, 미국에서는 외국인의 특허 출원 활동이 미비하여 내국인의 시장 장악이 높은 것으로 확인되었다. 유럽에서는 전반적으로 특허출원 활동이 저조하게 이루어졌으나, 외국인의 출원 비중이 지속적으로 증가하고 있어, 유럽 내 국민의 기술 개발 활동이 상대적으로 활발하지 않은 것으로 해석된다.
그림 3. 언어 모델 기반 생성형 인공지능 주요 출원국 내외국인 특허출원 현황
Fig. 3. Language model-based generative artificial intelligence Patent application status by domestic and foreign major filing countries
언어 모델 기반 생성형 인공지능에 대한 특허 출원 동향을 분석해 보면 미국이 1,211건(53%)으로 가장 많은 특허를 출원한 국가로 나타나며 그중 대부분(812건(63%))이 내국인에 의해 이루어진 것으로 파악된다. 한국에서는 외국인과 내국인의 특허 출원 비율이 거의 동일했으며(54%:46%), 유럽에서는 비유럽인의 특허 출원이 많았다(61%:31%). 한국과 유럽의 공통점으로는 미국 출원인의 비율이 높게 나타난다는 것이다. 이러한 동향은 언어 모델 기반 생성형 인공지능 기술이 국제적으로 주목받고 있음을 의미하며 각 국가 및 지역별로 기술 개발과 특허 활동에 대한 다양한 전략과 관심을 가지고 있다는 것을 반영한다.
3-3. 특허 기술 성장단계
그림 4와 같이 언어 모델 기반 생성형 인공지능 기술의 특허 기술 성장단계를 분석한 결과 해당 기술은 성장기에 있는 것으로 판단된다. 분석된 구간별로 특허 출원 건수와 출원인 수가 지속적으로 증가하는 추세를 보이고 있어, 해당 기술 분야가 활발하게 연구되고 개발되고 있음을 시사하고 있다. 이러한 성장단계의 기술은 기술의 상용화와 보급이 활발하게 이루어질수록 기술적 발전이 가속화 할 가능성이 높음을 의미한다.
그림 4. 언어 모델 기반 생성형 인공지능 주요 출원국별 기술 성장단계
Fig. 4. Language Model-Based Generative AI Technology Growth Stages by Major Filing Countries
결론적으로, 세 국가(한국, 미국, 유럽)의 특허 기술 성장단계를 조사한 결과, 모든 국가에서 특허 출원인 수와 출원 건수가 선형적으로 증가하는 경향을 보인다. 이는 각 국가에서 언어 모델 기반 생성형 인공지능 기술에 관한 연구와 개발이 활발하게 이루어지고 있음을 의미한다.
미국과 한국에서는 분석 구간 초기에 성장이 미비했으나, 지속적으로 성장세를 유지하고 있어 기술의 성숙과 확산이 진행 중임을 확인할 수 있다. 특히, 이러한 증가세는 기술의 상용화 가능성과 시장의 확대를 예상하게 한다. 그림 4를 보면 유럽에서도 성장단계가 초기에는 없었지만, 특히 3구간에서 급증하였다. 그러나 출원 건수가 상대적으로 적어 지속적인 모니터링과 분석이 필요하며, 추가적인 연구개발 활동이 이루어져야 한다.
이러한 국가별 특허 출원 동향 분석을 통해, 전 세계적으로 이 기술 분야에 대한 관심과 투자가 확대되고 있음을 알 수 있다. 이는 언어 모델 기반 생성형 인공지능 기술이 가지는 상업적 및 사회적 가치를 반영하는 것으로, 이 기술의 지속적인 발전과 다양한 응용 분야로의 확산이 기대된다.
3-4. 주요 출원인 분석
상위 10개 다출원인에 대한 분석 시, 언어 모델기반 생성형 인공지능 기술에 대한 각 기업의 전문분야와 영향력이 다양하게 나타나고 있음이 확인되었다. 미국, 한국, 유럽, 중국의 대표 기업들이 주요 다출원인으로 등장하며, 이들 기업은 대부분 자국과 미국 시장에서 특허 활동을 진행하고 있다. 이는 미국 시장의 중요성 및 자국 시장의 특성, 특히 생성형 AI의 언어적 모델의 특성에 기반한다고 볼 수 있다. 언어 모델의 가장 중요한 특성 중 하나인 대규모 데이터셋의 활용 가능성 유무인 점을 고려할 때 영어권의 강세가 수반된다고 볼 수 있다.
G사의 경우 모델링, 학습 및 최적화 분야에서 독보적인 기술력을 지니고 있으며, 다양한 기술 분야에서도 주요 영향력을 발휘하고 있다. S사의 경우 데이터 전처리와 모델링에서 주력하고 있어, 특히 데이터 전처리 분야에서의 강점이 두드러지게 나타나고 있다. E연구소 및 I사는 환각 문제 및 도전과제 기술 분야에서 독특한 기술력을 보여주고 있다. D사 및 L사의 경우 모델링 기술 분야에서 뛰어난 성과를 보인다. 그 외 다른 기업들도 상위 다출원 리스트에 이름을 올렸으나, 상대적으로 특허 출원 수가 적어 전반적인 특허 동향에 큰 영향을 주지는 못하고 있다. 그러나 이러한 기업들의 기술 개발 역시 무시할 수 없으며, 각기 다른 분야에서의 기술 발전 가능성을 염두에 두어야 한다. 종합적으로 볼 때, 이러한 분석 결과는 각 기업이 언어 모델 기반 생성형 인공지능 기술 분야에서 어떻게 위치하고 있는지, 어떤 전략과 방향성을 가져가야 하는지에 대한 중요한 인사이트를 제공하고 있다. 이 기술 분야에서 경쟁력을 유지하고 발전시키려면 기업들은 지속적인 연구개발 투자와 다양한 기술 분야에서의 특허 활동이 필수적이라 할 수 있다.
3-5. 세부 기술별 연도별 동향
본 연구에서의 분석 결과에 따르면, 그림 5와 같이 2013년도부터 언어 모델 기반 생성형 인공지능 기술 분야에서의 전체 특허 건수는 지속적으로 상승하는 경향을 나타내고 있다.
그림 5. 언어 모델 기반 생성형 인공지능 세부기술별 연도별 특허 동향
Fig. 5. Language model-based generative artificial intelligence patent trends by year by detailed technology
특히 2017년 이후에는 특허 출원 건수가 급격히 상승하였는데, 이러한 현상은 주로 트랜스포머 모델의 등장 및 그에 따른 기술적 영향이 크게 작용한 것으로 해석된다. 모든 기술 분야에서 꾸준한 성장세를 보이며, 환각 문제는 다양한 대규모 언어 모델들이 출시되면서 문제의 복잡성이 증가한 것으로 파악된다.
또한, 모델링 기술 분야에서는 2016년을 기준으로 5년간 약 40%가량 특허 출원이 지속적으로 증가해 왔으며 최근 대량의 데이터를 학습하는 대규모 언어 모델이 꾸준히 출시되고 있는 것으로 보아 대규모 언어 모델의 지속적인 연구와 개발로 인해 특허 출원 건수가 더욱 증가할 것으로 전망된다[19].
앞서 언어 모델 기반 생성형 인공지능 기술 분야의 특허 출원량 증가와 모델링 기술 분야의 특허 출원 증가 등을 볼 때, 언어 모델 기반 생성형 인공지능 기술의 중요성과 영향력이 점차 증대되고 있으며, 해당 분야의 연구개발이 적극적으로 이루어지고 있음을 확인할 수 있다. 이를 통해 본 분야의 지속적인 기술 발전과 혁신의 필요성이 강조되며, 연구자와 개발자들에게 이 분야에서의 추가적인 연구와 개발을 촉진시킬 것으로 기대된다.
4. 언어모델 기반 생성형 인공지능 발전 방향 예측
4-1. 데이터 전처리 기술 발전 방향
언어 모델 기반 생성형 인공지능 기술의 발전 추세를 이해하고 미래 트렌드를 예측하기 위해, 본 연구에서는 스탠포드 AI Index, 벤처캐피탈의 AI 투자 동향, 그리고 조사 대상 특허를 기반으로 시간에 따른 기술 및 흐름을 체계적으로 분석하였다[20][21].
데이터 전처리 트렌드 예측을 위해 분석을 진행하며 데이터 전처리에 핵심적으로 작용하는 기술들을 살펴본 결과, 향후 데이터 전처리 파이프라인의 자동화, 데이터 품질 평가, 실시간 전처리, 그리고 윤리 및 규제 표준에 관한 기술 개발이 중요한 연구 트렌드로 부각될 것으로 도출되었다.
초기의 데이터 전처리 기술은 Bag-of-Words 모델과 수동 기능 추출을 중심으로 발전해 왔다. Bag-of-Words 모델은 단순한 텍스트 데이터 처리 방법으로, 단어의 순서와 의미를 고려하지 않았다. 이에 반해, 중요한 특성이나 속성은 전문가의 지식을 바탕으로 수동으로 추출되었다. 이후, 불용어 제거, 정규화 및 표준화 등의 기술이 등장하며, 불필요한 단어를 제거하고 신경망의 계층 크기를 동적으로 조정하는 등의 발전이 있었다. 특히, LSTM과 GRU 같은 순환신경망 기술의 등장은 데이터의 순차적 정보를 보존하는 데 큰 성공을 거두었다. 최근의 발전으로는 Transformer와 전이 학습 기술이 주목받고 있다. 이들 기술은 위치 인코딩의 사용과 시퀀스 패딩의 필요성을 줄이며, BERT와 같은 신종 모델들을 가능케 하였다. 또한, AutoML과 같은 자동화된 데이터 전처리 기술의 도입으로, 기계 학습 모델을 위한 데이터를 보다 효율적으로 정리하고 변환할 수 있게 되었다. 앞서 설명한 기술들을 고도화 시키기 위해선 성능의 극대화도 중요하지만, 일관성 유지 및 신뢰성 확보가 중요하다고 판단했다. 데이터 전처리는 모델의 일관성에 직접적인 영향을 미칠 수 있다. 같은 데이터에 대해 일관된 처리를 하지 않으면 모델의 예측이 불안정해질 수 있다. 추가로 신뢰성 확보는 데이터의 정확성과 일관성을 보장하며 불필요한 오류를 방지할 수 있고 사용자의 신뢰를 증진시키는 효과를 낼 것이기에 향후 중요 연구 트렌드로 선정하게 되었다.
4-2. 모델링 기술 발전 방향
언어 모델 기반 생성형 인공지능 기술의 발전 과정에서 모델링 기술은 여러 단계의 중요한 변화를 겪었다. 초창기에는 순환신경망이 주로 사용되어 시퀀스 데이터를 효과적으로 다루는 데 중요한 역할을 했다[22]. 이어서 Attention 메커니즘이 도입되며, 모델이 데이터의 중요한 부분에 더 집중할 수 있게 되었고 이는 성능 향상에 큰 도움이 되었다[23]. 다음 단계에서는 Pre-trained 모델이 주목받기 시작했다[24]. 이러한 모델은 사전에 다양한 데이터셋과 작업으로 훈련되어, 더욱 풍부하고 다양한 표현을 학습 할 수 있게 되었다. 이런 발전을 통해, 모델링 기술은 지속적으로 발전하고 있으며, 모델의 성능과 훈련의 효율성도 동시에 개선되고 있다. 이러한 연속적인 기술적 발전은 향후 더 적은 파라미터로도 우수한 성능을 내는 모델이 등장할 가능성을 내비치며, 효율적이고 설명 가능한 모델 개발이 중요한 연구 주제로 떠오르고 있다[25]. 이는 언어 모델 기반 생성형 인공지능 기술이 더욱 세밀하고 발전된 형태로 진화하게 되며, 이로 인해 다양한 애플리케이션에서의 활용 가능성이 증대되고, 새로운 혁신을 촉진할 것으로 예상된다.
4-3. 학습 및 최적화 기술 발전 방향
최적화 기술의 초창기 발전 단계에서는 기울기 클리핑, 드롭아웃, 배치 정규화와 같은 방법들 중심으로 연구가 진행되었고, 이러한 기법들은 주로 RNN 모델의 최적화를 목적으로 개발되었다[26]. 이후, Transformer 모델의 등장과 함께 미세조정, 전이학습, 학습률 스케줄링 등의 고급 기술들이 개발되었고 이러한 기술들의 발전은 모델의 성능을 크게 향상시켰다[27][28].
최근 연구 동향을 보면, 학습 및 최적화 방법들이 사람의 학습 방식과 유사하도록 발전하고 있으며, NAS(네트워크 아키텍처 탐색), 연합학습, 메타학습 등이 주요 연구 토픽으로 떠오르고 있다. 이러한 연구들은 모델의 학습 과정을 더욱 효율적이고 지능적으로 만들어, 언어 모델 기반 생성형 인공지능 기술의 성능과 활용도를 더욱 높일 것으로 예상된다.
4-4. 응용분야 기술 발전 방향
초기에는 맞춤법과 문법 검사, 검색 엔진, 챗봇 등 기본적인 텍스트 애플리케이션에 중점이 두어졌다. 이어서 감정 분석, 가상 비서, 기계 번역과 같은 간단한 자연어 처리와 비서 시스템이 등장하며 시장이 확장되었다. 최근에는 컨텐츠 추천 시스템, 고객서비스 봇, 음성 인식 및 생성 등 다양한 NLP 및 자동화 기술이 발전하며, 텍스트 생성과 헬스케어 등에서도 정교한 모델이 적용되고 있다[29].
특허 출원 경향을 기반으로 기술 발전 방향을 살펴보면, NLP 분야의 기계 번역과 감정분석의 정확도와 활용도는 더욱 향상될 것이며, 이를 통해 다양한 분야에서 언어 모델이 인간의 요구를 더욱 정확하게 이해하고 예측할 것으로 예상된다. 또한, 윤리적 문제의 해결이 중요한 이슈로 대두될 것이며, 인간과 AI 간의 협업 능력이 향상되어, 최근 인터랙티브 엔터테인먼트와 관련된 특허 출원이 눈에 띄게 증가했다[30]. 기술이 발전함에 따라 대화형 엔터테인먼트가 혁신의 최전선에 서서 소비자가 콘텐츠에 참여하는 방식을 재편할 것이라 예상한다. 특히 XR, VR과 같은 새로운 기술의 발전과 결합하여, 언어 모델 기반 생성형 인공지능은 보다 다양하고 창의적인 방식으로 사람들의 삶에 녹아들 것으로 판단된다.
4-5. 환각문제 관련 기술 발전 방향
언어 모델 기반 생성형 인공지능의 발전 과정에서는 다양한 도전과제와 문제들이 연구되고 해결됐다. 처음에는 단기 기억의 문제와 소멸하는 기울기와 같은 기술적인 한계들이 주요 관심사였으며 이후, 계산 비용과 계산능력 저하와 같은 효율성과 관련된 문제들이 중요한 연구 주제로 부상했다.
최근에는 모델이 생성하는 결과의 환각과 편향, 그리고 그로 인한 환경문제 등이 새로운 도전 과제로 대두되고 있다[31]. 특허 출원 동향에서도 최근 19년부터 환각 문제를 해결하기 위한 핵심 특허들이 출원되고 있으며 19년 7건에서 21년 45건으로 급증하는 모습을 보인다.
특히 환각 문제와 편향에 대한 연구는 모델의 정확도와 신뢰성을 높이는 데 기여할 것으로 기대되며, 환경 문제에 대한 연구는 지속 가능한 모델 개발에 방향을 제시할 것으로 기대된다.
향후 기술 개발 트렌드를 예측해 보면, 현재 거론되고 있는 환각 문제, 편향, 환경 문제 등에 대한 연구는 활발해질 것이며, 이러한 문제들이 완전히 해결되기까지 지속될 것으로 예상된다[32]. 이를 통해 언어 모델 기반 생성형 인공지능은 보다 정확하고 신뢰할 수 있는 기술로 발전할 것으로 전망된다.
5. 결론
본 논문은 생성형 인공지능 기술 관련 특허를 중심으로 언어모델 기반 생성형 인공지능 발전 방향을 예측하기 위해 각 국가별 연도별 출원 동향 및 특허기술 성장 단계별 분석, 주요 출원인 분석 및 세부기술의 연도별 동향을 조사하였다.
기존의 논문들의 경우 기술적인 발전을 기반으로 생성형 인공지능 기술의 발전을 분석한 반면, 본 논문의 경우 2008년부터 2023년까지의 미국, 한국, 유럽의 특허 출원 데이터를 토대로 핵심 기술의 발전 방향을 기술 분류에 맞춰 분석을 진행하였다. 이는 개별적인 기술의 내용뿐만 아니라 생성형 인공지능 기술 관련 주요 기업 및 기관들이 특허 출원을 통해 법적 권리를 확보하고자 하는 핵심 기술의 내용을 확인할 수 있었다.
언어 모델 기반 생성형 인공지능 기술은 지난 몇년 동안 엄청난 발전을 이루어왔으며, 미래에 대한 흥미로운 전망을 제공한다. 데이터 전처리, 모델링, 학습 및 최적화, 응용분야, 그리고 도전과제와 관련된 기술 발전 방향은 언어 모델의 미래를 형성하고 다양한 분야에서의 응용 가능성을 높이고 있다.
데이터 전처리 분야에서는 데이터의 품질과 처리 효율성을 향상시키기 위한 자동화 및 품질 평가가 중요한 트렌드로 떠오를 것이다. 이는 모델의 성능 향상과 효율적인 데이터 활용을 촉진할 것이다.
모델링 기술은 계속해서 진화하며, 더 효율적이고 설명 가능한 모델의 개발이 예상된다. 작은 파라미터로 더 높은 성능을 달성하는 모델이 더욱 두드러질 것이다.
학습 및 최적화 분야에서는 연합학습, 메타학습, NAS와 같은 지능적인 학습 및 최적화 기술이 더욱 중요한 역할을 할 것이다. 모델의 효율성과 학습 능력을 향상시킬 것으로 기대된다.
응용분야에서의 확장은 언어 모델의 다양한 분야에서의 활용 가능성을 높일 것이다. 음성 인식, 컨텐츠 추천, 의료 및 헬스케어 분야에서의 응용이 특히 주목받을 것이다.
도전과제와 관련된 분야는 모델의 정확도와 신뢰성을 향상시키는 데 중요한 역할을 할 것이다. 또한, 환경 문제에 대한 연구는 지속 가능한 모델 개발에 기여할 것이다.
앞으로의 연구와 개발은 이러한 트렌드를 고려하여 언어 모델 기반 생성형 인공지능 기술을 발전시키고, 혁신적인 솔루션을 제공하는 데 중요한 역할을 할 것이다.
이에 향후 국내 AI 기반 생태계를 조성하여 해당 기술이 발전함에 따라 생겨나는 신기술에 발맞춰 특허를 출원하고 활용하면 다양한 산업에서의 응용 기술에서 글로벌 시장 선점 전략을 사용할 수 있을 것으로 예상된다.
References
- J. H. Yang, S. H. Yoon, "Beyond ChatGPT Generative Into the AI era : Media.Content Generation AI Service cases and competitiveness Ensuring", Media_Issue_Trend(vol55)_22, Apr 2023.
- E. J. Hong, "Beyond ChatGPT, the future of Generative AI - Part 1", SAMSUNG SDS, Aug 2023.
- S. Hochreiter, J. Schmidhuber, "Long Short-Term Memory", Neural Comput, 1997.
- A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin, "Attention Is All You Need", arxiv.org/abs/1706.03762, Jun 2017.
- C. Zhang, S. Bengio, M. Hardt, B. Recht, O. Vinyals, "Understanding Deep Learning Requires Rethinking Generalization", arxiv.org/abs/1611.03530, Nov 2016.
- S. J. Lim, S. E. Lee, "Artificial intelligence language model trends", The Journal of The Korean Institute of Communication Sciences, vol. 40, no. 3, pp. 42-50, 2023.
- J. O. Jeong, "'Large-scale language model LLM' growing rapidly due to expanded use of AI", GTT KOREA, 2023.
- X. Pu, M. Gao, X. Wan, "Summarization is (Almost) Dead", arxiv.org/abs/2309.09558, Sep 2023.
- H. J. Kim, "[Column] AI Hallucination, and Language Obsession", THE AI, Aug 2023.
- D. H. Kim, S. E. Yoo, B. J. Lee, H. Y. Youn, K. T. Kim, "Data preprocessing for efficient machine learning", Proceedings of the Korean Society of Computer Information Conference, 2019.01a, 49-50, 2019
- F. Petroni, T. Rocktaschel, P. Lewis, A. Bakhtin, Y. Wu, A. H. Miller and S. Riedel, "Language Models as Knowledge Bases?", arxiv.org/abs/1909.01066, Sep 2019.
- J. Wei and M. Bosma and V. Y. Zhao and K. Guu and A. W. Yu and B. Lester and N. Du and A. M. Dai and Q. V. Le, "Finetuned Language Models Are Zero-Shot Learners", arxiv.org/abs/2109.01652, Sep 2021.
- Y. Liu, M. Lapata, "Text Summarization with Pretrained Encoders", arxiv.org/abs/1908.08345, Aug 2019.
- W. X. Zhao, K. Zhou, J. Li, T. Tang, X. Wang, Y. Hou, Y. Min, B. Zhang, J. Zhang, Z. Dong, Y. Du, C. Yang, Y. Chen, Z. Chen, J. Jiang, R. Ren, Y. Li, X. Tang, Z. Liu, P. Liu, J. Y. Nie, J. R. Wen, "A Survey of Large Language Models", arxiv.org/abs/2303.18223, Mar 2023.
- S. H. Lee, "The era of AI gold rush arrives with Chat GPT", Hi Investment & Securities, Industry Report, Feb 2023.
- T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, S. Agarwal, A. H. Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. M. Ziegler, J. Wu, C. Winter, C. Hesse, M. Chen, E. Sigler, M. Litwin, S. Gray, B. Chess, J. Clark, C. Berner, S. McCandlish, A. Radford, I. Sutskever, D. Amodei, "Language Models are Few-Shot Learners", arxiv.org/abs/2005.14165, May 2020
- X. He, K. Zhao, X. Chu, "AutoML: A Survey of the State-of-the-Art", arxiv.org/abs/1908.00709, Aug 2019.
- J. Devlin, M. W. Chang, K. Lee, K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", arxiv.org/abs/1810.04805, Oct 2018.
- L. Friedman, S. Ahuja, D. Allen, Z. Tan, H. Sidahmed, C. Long, J. Xie, G. Schubiner, A. Patel, H. Lara, B. Chu, Z. Chen, M. Tiwari, "Leveraging Large Language Models in Conversational Recommender Systems", arxiv.org/abs/2305.07961, May 2023.
- Stanford AI Index, "AI Index Report 2023 - Artificial Intelligence Index", Stanford University Human-Centered Artificial Intelligence, 2023.
- S. S. Choi, B. R. Joo, S. J. Yeon, ""Trends and Implications of Venture Capital Investment in the Artificial Intelligence Industry," Electronics and Telecommunications Research Institute, 2022.
- I. Sutskever, O. Vinyals, Q. V. Le, "Sequence to Sequence Learning with Neural Networks", arxiv.org/abs/1409.3215, Sep 2014
- M. H. Guo, T. X. Xu, J. J. Liu, Z. N. Liu, P. T. Jiang, T. J. Mu, S. H. Zhang, R. R. Martin, M. M. Cheng, S. M. Hu, "Attention Mechanisms in Computer Vision: A Survey", arxiv.org/abs/2111.07624, Nov 2021
- D. Araci, "FinBERT: Financial Sentiment Analysis with Pre-trained Language Models", arxiv.org/abs/2307.09288, Aug 2019
- H. Touvron, L. Martin, K. Stone, P. Albert, A. Almahairi, Y. Babaei, N. Bashlykov, S. Batra, P. Bhargava, S. Bhosale, D. Bikel, L. Blecher, C. C. Ferrer, M. Chen, G. Cucurull, D. Esiobu, J. Fernandes, J. Fu, W. Fu, B. Fuller, C. Gao, V. Goswami, N. Goyal, A. Hartshorn, S. Hosseini, R. Hou, H. Inan, M. Kardas, V. Kerkez, M. Khabsa, I. Kloumann, A. Korenev, P. S. Koura, M. A. Lachaux, T. Lavril, J. Lee, D. Liskovich, Y. Lu, Y. Mao, X. Martinet, T. Mihaylov, P. Mishra, I. Molybog, Y. Nie, r. Poulton, J. Reizenstein, R. Rungta, K. Saladi, A. Schelten, R. Silva, E. M. Smith, R. Subramanian, X. E. Tan, B. Tang, R. Taylor, A. Williams, J. X. Kuan, P. Xu, Z. Yan, I. Zarov, Y. Zhang, A. Fan, M. Kambadur, S. Narang, A. Rodriguez, R. Stojnic, S. Edunov, T. Scialom, "Llama 2: Open Foundation and Fine-Tuned Chat Models", arxiv.org/abs/2307.09288, Jul 2023.
- N. Srivastava, G. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov, "Dropout: A Simple Way to Prevent Neural Networks from Overfitting", Journal of Machine Learning Research 15, 1929-1958, 2014.
- C. Raffel, N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Y. Zhou, W. Li, P. J. Liu, "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer", arxiv.org/abs/1910.10683, Oct 2019
- P. Pathak, A. E. Eshratifar, M. Gormish, "Video Person Re-ID: Fantastic Techniques and Where to Find Them", arxiv.org/abs/1912.05295, Nov 2019
- NIA, "NIA, Evolution of language models (LLM) and cloud services such as ChatGPT", Digitalservice Issue Report, May 2023
- G. H Lee, "Metaverse expansion strategy continues, overcoming generative AI 'text limitations' with Meta Smart Glasses", Business Post, Oct
- S. G. Han, "Limitations and issues of generative AI, including ChatGPT, People changing education, Aug 2023.
- Y. M. Kim, "Legal Issues in Generative Artificial Intelligence Models", Information law 27, no.1 77-112, 2023