검색 결과

"자기 회귀"에 대한 검색 결과 (총 4개)

GPT

기술 > 자연어처리 > 대규모 언어 모델 | 익명 | 2025-10-03 | 조회수 19

# GPT ## 개요 GPT(G Pre-trained Transformer) 오픈AI(OpenAI)에서 개발한 **대규모 언어 모델**(Large Language Model, LLM) 시리즈로, 자연어 처리(NLP) 분야에서 혁신적인과를 이룬 대표적인 생성형 인공지능 모델이다. GPT는 **변환기**(Transformer) 아키텍처를 기반으로 하며, 방...

GPT-2

기술 > 인공지능 > 대규모 언어 모델 | 익명 | 2025-09-03 | 조회수 33

# GPT-2 ## 개요 **GPT-2**(Generative Pre-trained Transformer2)는 OpenAI에서 2019년 발표한 대규모 언어 모델로, 자연어 처리(NLP) 분야에서 획기적인 성과를 거둔 모델 중 하나입니다. GPT-2는 트랜스포머(Transformer) 아키텍처를 기반으로 하며, 방대한 양의 인터넷 텍스트를 학습하여 텍스...

GPT

기술 > 자연어처리 > 언어 모델링 | 익명 | 2025-09-02 | 조회수 37

# GPT ## 개요 **GPT**(Generative Pre-trained Transformer)는 오픈AI(OpenAI)에서발한 자연어 처리(NLP) 분야의 대표적인 언어 모델 시리즈로, 트랜스포머(Transformer) 아키텍처를 기반으로 한 생성형 사전 훈련 모델입니다. GPT는 대량의 텍스트 데이터를 이용해 사전 훈련된 후, 특정 작업에 맞게 ...

GPT

기술 > 인공지능 > 신경망 모델 | 익명 | 2025-09-02 | 조회수 26

GPT ##요 **G**(Generative Pre-trained Transformer)는 오픈AI(OpenAI에서 개발한 대규모 언어 모델(Large Language Model, LLM) 시리즈로, 자연어를 생성하고 이해하는 데 특화된 딥러닝 기반의 신경망 아키텍처입니다. GPT 트랜스포머(Transformer) 아키텍처를 기반으로 하며, 방대한 텍스...