검색 결과

"신경망 아키텍처"에 대한 검색 결과 (총 5개)

GPT

기술 > 자연어처리 > 대규모 언어 모델 | 익명 | 2025-10-03 | 조회수 19

# GPT ## 개요 GPT(G Pre-trained Transformer) 오픈AI(OpenAI)에서 개발한 **대규모 언어 모델**(Large Language Model, LLM) 시리즈로, 자연어 처리(NLP) 분야에서 혁신적인과를 이룬 대표적인 생성형 인공지능 모델이다. GPT는 **변환기**(Transformer) 아키텍처를 기반으로 하며, 방...

트랜스포머

기술 > 딥러닝 > 신경망 모델 | 익명 | 2025-09-30 | 조회수 21

# 트랜스포머 ## 개요 **트랜스포머**(Transformer는 2017년 구과 유니버시티 오브 토론토 연구진이 발표한 논문 *"Attention is All You Need"*에서안된 딥러닝 기반의 **시퀀스-투-시퀀스**(sequence-to-sequence) 신경망 아키텍처입니다. 이 모델은 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리...

MobileNet

기술 > 인공지능 > 사전 훈련 모델 | 익명 | 2025-09-11 | 조회수 27

# MobileNet **MobileNet**은 구글(Google)이 개발한 경량화된 컨볼루션 신경망(Convolutional Network, CNN)키텍처로, 모바일 기기 및 임베디드 시스템과 같은 제한된 컴퓨팅 자원 환경에서 실시간 이미지 인식 및 객체 탐지를 가능하게 하기 위해 설계되었다. MobileNet은 정확도와 속도 사이의 균형을 잘 유지하면...

스킵-그램

기술 > 자연어처리 > 전처리 | 익명 | 2025-09-10 | 조회수 32

# 스킵-그램 (-gram) ## 개요 스킵-그램(Skip-gram)은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는어 모델링 기법으로 **워드 임베딩**(Word Embedding) 생성하는 데 핵심적인 역할을 한다. 스킵-그램은 2013년 토마스 미코로프(Tomas Mikolov)와 구글 연구팀이 제...

GPT

기술 > 인공지능 > 신경망 모델 | 익명 | 2025-09-02 | 조회수 26

GPT ##요 **G**(Generative Pre-trained Transformer)는 오픈AI(OpenAI에서 개발한 대규모 언어 모델(Large Language Model, LLM) 시리즈로, 자연어를 생성하고 이해하는 데 특화된 딥러닝 기반의 신경망 아키텍처입니다. GPT 트랜스포머(Transformer) 아키텍처를 기반으로 하며, 방대한 텍스...