# CNN/Daily Mail ## 개요 **CNN/Daily Mail**(줄여서 **C/D M**)은 자연어 처리(NLP) 분야에서 **추상적 요약(abstractive summarization)** 및 **추출적 요약(extractive summarization)** 모델을 평가하기 위해 널리 사용되는 대규모 벤치마크 데이터셋이다. 2015년 **...
검색 결과
"사전학습"에 대한 검색 결과 (총 4개)
# 질문 응답 시스템 ## 개요 질문 응답 시스템(Question Answering, QA)은 사용자가 자연어로 제시한 질문에 대해 **정확하고 간결한 답변**을 자동으로 생성하는 기술이다. 전통적인 정보 검색(IR) 시스템이 “문서 목록”을 반환한다면, QA 시스템은 “답변 자체”를 제공한다는 점에서 차별화된다. 최근 딥러닝, 특히 **대규모 사전학습 ...
# BERT-Base BERT-Base는 자연어 처리(NLP) 분야에서 혁신적인 전환을 가져온 **Bidirectional Encoder Representations from Transformers**(BERT) 모델의 기본 버전 중 하나로, 구글 연구팀에 의해 2018년에 발표되었습니다. BERT는 이전의 단방향 언어 모델과 달리 문장 내 모든 단어를 ...
# Masked Language Model ##요 **Masked Language Model**(MLM, 마스크된 언어 모델)은 자연어 처리(NLP) 분야에서 대표적인 언어 모델링 기법 중 하나로, 입력 문장의 일부 단어를 임의로 "마스킹"하여, 모델이 해당 위치의 원래 단어를 예측하도록 학습하는 방식이다. 이 기법은 주로 **BERT**(Bidirec...