# ViT (Vision Transformer## 개요 ViT(V Transformer)는 전통적인 컨루션 신경(Convolutional Neural Network,) 대신 **랜스포머**(Transformer 아키텍처를 기으로 이미지 인식 작업을 수행하는 **컴퓨터비전 모델**입니다. 2020년글 딥마인드(Google Brain) 팀이 발표한 논문 *"...
검색 결과
"Transformer 아키텍처"에 대한 검색 결과 (총 8개)
# 자동 번역 자동 번역(Automated Translation) 인간의 개입 없이 컴퓨터 시스템을 이용해 한 언어로 작성된 텍스트를 다른 언어로 변환하는 기술을 말합니다. 이는 자연어 처리(Natural Language Processing, NLP)의 핵심 분야 중 하나이며, 데이터과학과 인공지능(AI) 기술의 발전에 힘입어 최근 몇 년 사이 급속도로 ...
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...
# Universal Sentence Encoder **Universal Encoder**(유니버설 문장 인코더, 이하 USE)는 구글이 개발한 자연어 처리(NLP) 모델로 문장을 고정된 차원의 의미 벡터(임베딩)로 변환하는 데 특화된 딥러닝 기반 임베딩 기술이다. 이 모델은 다양한 언어와 문장 구조에 대해 일반화된 의미 표현을 제공하며, 분류, 유사도 ...
# Semantic Role Labeling ## 개요 **의 역할 태깅Semantic Role Labeling,하 SRL) 자연어처리(NLP) 분에서 문장 내의 의미 구조를 분석하는 핵심 기 중 하나입니다.RL은 문장에서서사**(predicate)를 중심으로 그변에 등장하는 구성 요소들이 어떤 **의미적 역할**(semantic role)을 수행하는지...
# Masked Language Modeling ## 개요 Masked Language Modeling(MLM)은 자연어 처리(NLP) 분야에서 사용되는 자기지도 학습(Self-Supervised Learning) 기법으로, 언어 모델을 사전 훈련(Pre-Training)하는 데 핵심적인 역할을 합니다. 이 기법은 입력 텍스트의 일부 토큰을 무작위로 마스...
# Qwen3 ## 개요 Qwen3는 알리바바 클라우드(Alibaba Cloud)에서 개발한 대형 언어 모델(Large Language Model)로, 알리바바 그룹의 초대규모 언어 모델 시리즈인 Qwen의 세 번째 주요 버전입니다. 이 모델은 자연어 처리, 코드 생성, 멀티모달 이해 등 다양한 작업에서 뛰어난 성능을 발휘하며, 기업 및 개인 사용자에게 ...
# GPT-4 ## 개요 GPT-4enetic Pre-trained Transformer 4)는 미국의 인공지능 연구 기업인 **OpenAI**가발한 **대모 언어 모델**(Large Language Model, LLM)의 네 번째 주요 버전으로,2023년 3월에 공개되었습니다. 이 모델은 자연어 처리, 생성, 이해 등 다양한 언어 과제에서 인간 수준에...