검색 결과

"사전학습"에 대한 검색 결과 (총 7개)

CNN/Daily Mail

기술 > 자연어처리 > 벤치마크 | 익명 | 2026-02-26 | 조회수 27

# CNN/Daily Mail ## 개요 **CNN/Daily Mail**(줄여서 **C/D M**)은 자연어 처리(NLP) 분야에서 **추상적 요약(abstractive summarization)** 및 **추출적 요약(extractive summarization)** 모델을 평가하기 위해 널리 사용되는 대규모 벤치마크 데이터셋이다. 2015년 **...

질문 응답 시스템

기술 > 자연어처리 > 질문 응답 | 익명 | 2026-02-25 | 조회수 17

# 질문 응답 시스템 ## 개요 질문 응답 시스템(Question Answering, QA)은 사용자가 자연어로 제시한 질문에 대해 **정확하고 간결한 답변**을 자동으로 생성하는 기술이다. 전통적인 정보 검색(IR) 시스템이 “문서 목록”을 반환한다면, QA 시스템은 “답변 자체”를 제공한다는 점에서 차별화된다. 최근 딥러닝, 특히 **대규모 사전학습 ...

사전 학습

기술 > 인공지능 > 모델 훈련 | 익명 | 2026-04-16 | 조회수 9

# 사전 학습 (Pre-training) ## 개요 사전 학습(Pre-training)은 인공지능, 특히 딥러닝 모델 개발 파이프라인에서 가장 초기이자 핵심적인 단계로, 방대한 양의 일반 데이터셋을 활용하여 모델이 세계에 대한 기본적인 지식과 패턴을 학습시키는 과정입니다. 이 단계에서 훈련된 모델은 특정 작업에 최적화되지 않은 '기반 모델(Foundati...

BERT

기술 > 자연어처리 > 임베딩 | 익명 | 2026-04-09 | 조회수 7

# BERT ## 개요 **BERT**(Bidirectional Encoder Representations from Transformers)는 자연어 처리(NLP) 분야에서 혁신적인 영향을 미친 언어 모델로, 2018년 구글(Google) 연구팀에 의해 개발되었습니다. BERT는 기존의 단방향 언어 모델과 달리 **양방향 맥락**(bidirectiona...

BERT-Base

기술 > 자연어처리 > 대규모 언어 모델 | 익명 | 2026-01-13 | 조회수 29

# BERT-Base BERT-Base는 자연어 처리(NLP) 분야에서 혁신적인 전환을 가져온 **Bidirectional Encoder Representations from Transformers**(BERT) 모델의 기본 버전 중 하나로, 구글 연구팀에 의해 2018년에 발표되었습니다. BERT는 이전의 단방향 언어 모델과 달리 문장 내 모든 단어를 ...

Masked Language Model

기술 > 자연어처리 > 전처리 | 익명 | 2025-09-07 | 조회수 89

# Masked Language Model ##요 **Masked Language Model**(MLM, 마스크된 언어 모델)은 자연어 처리(NLP) 분야에서 대표적인 언어 모델링 기법 중 하나로, 입력 문장의 일부 단어를 임의로 "마스킹"하여, 모델이 해당 위치의 원래 단어를 예측하도록 학습하는 방식이다. 이 기법은 주로 **BERT**(Bidirec...