검색 결과

"다국어 버전"에 대한 검색 결과 (총 4개)

KoBERT

기술 > 자연어처리 > 딥러닝 모델 | 익명 | 2025-12-17 | 조회수 9

# KoBERT ## 개요 **KoBERT**(Korean Bidirectional Encoder Representations from Transformers)는 한국어 자연어 처리(NLP)를 위해 특화된 딥러닝 기반 언어 모델로, Google에서 제안한 BERT 아키텍처를 기반으로 하여 한국어 코퍼스에 추가 학습(Fine-tuning)을 거쳐 개발된 ...

BART

기술 > 자연어처리 > 요약 모델 | 익명 | 2025-09-30 | 조회수 29

# BART ## 개요 **BART**(Bidirectional and-Regressive Transformer)는 자연어(NLP) 분야에서 텍스트 생성 및 이해 작업에 널리 사용되는 **시퀀스-투-시퀀스**(sequence-to-sequence) 기반의 트랜스포머 아키텍처입니다. 2019년 페이북 AI(Facebook AI, 현재 Meta AI) 연구...

Universal Sentence Encoder

기술 > 인공지능 > 임베딩 | 익명 | 2025-09-11 | 조회수 41

# Universal Sentence Encoder **Universal Encoder**(유니버설 문장 인코더, 이하 USE)는 구글이 개발한 자연어 처리(NLP) 모델로 문장을 고정된 차원의 의미 벡터(임베딩)로 변환하는 데 특화된 딥러닝 기반 임베딩 기술이다. 이 모델은 다양한 언어와 문장 구조에 대해 일반화된 의미 표현을 제공하며, 분류, 유사도 ...