# CNN/Daily Mail ## 개요 **CNN/Daily Mail**(줄여서 **C/D M**)은 자연어 처리(NLP) 분야에서 **추상적 요약(abstractive summarization)** 및 **추출적 요약(extractive summarization)** 모델을 평가하기 위해 널리 사용되는 대규모 벤치마크 데이터셋이다. 2015년 **...
검색 결과
"HuggingFace"에 대한 검색 결과 (총 45개)
# 기계학습 기반 방법 ## 개요 기계학습 기반 방법(Machine Learning-based Approach)은 자연어처리(Natural Language Processing, NLP) 분야에서 언어 데이터의 패턴을 자동으로 학습하고 이를 기반으로 다양한 언어 과제를 수행하는 핵심 기술입니다. 전통적인 규칙 기반 시스템과 달리, 기계학습 기반 방법은 대...
# BERT-Base BERT-Base는 자연어 처리(NLP) 분야에서 혁신적인 전환을 가져온 **Bidirectional Encoder Representations from Transformers**(BERT) 모델의 기본 버전 중 하나로, 구글 연구팀에 의해 2018년에 발표되었습니다. BERT는 이전의 단방향 언어 모델과 달리 문장 내 모든 단어를 ...
# 개체명 인식 ## 개요 **개체명 인식**(Named Entity Recognition, 이하 NER)은 자연어 처리(Natural Language Processing, NLP) 분야의 핵심 기술 중 하나로, 텍스트 내에 등장하는 특정 유형의 명명된 실체(named entities)를 식별하고 분류하는 작업입니다. 예를 들어, "서울은 대한민국의 수...
# KoBERT ## 개요 **KoBERT**(Korean Bidirectional Encoder Representations from Transformers)는 한국어 자연어 처리(NLP)를 위해 특화된 딥러닝 기반 언어 모델로, Google에서 제안한 BERT 아키텍처를 기반으로 하여 한국어 코퍼스에 추가 학습(Fine-tuning)을 거쳐 개발된 ...
# XSum ## 개요 **XSum**은 자연어처리(NLP) 분야에서 특히 **문서 요약**(text summarization) 연구에 널리 사용되는 영어 기반의 대규모 요약 데이터셋입니다. 이 데이터셋은 BBC 뉴스 기사를 원본 텍스트로, 기사의 핵심 내용을 담은 매우 짧은 요약문을 정답(label)으로 구성하고 있으며, **추출형 요약**(extra...
# SentencePiece ## 개요 **SentencePiece**는 구글이 개발한 오픈소스 자연어 처리(NLP) 라이브러리로, 언어 모델링 및 기계 번역 작업에서 사용되는 **서브워드 토크나이제이션**(subword tokenization) 기법을 구현하는 도구입니다. 기존의 단어 기반 또는 문자 기반 토크나이제이션 방식의 한계를 극복하기 위해 설...
# Linear-chain CRF ## 개요 **Linear-chain Conditional Random Field**(선형 체인 조건부 확률장, 이하 Linear-chain CRF)는 자연어처리(NLP) 분야에서 널리 사용되는 **시퀀스 레이블링**(sequence labeling)을 위한 확률적 그래피컬 모델이다. 주로 형태소 분석, 개체명 인식(N...
# 트랜스포머 아처 ## 개요 **트스포머**(Transformer) 아처는 자연어(NLP) 분야 혁명적인 변화를끌어낸 딥러닝 모델 구조로, 2017년 구글 딥마인드 연구진이 발표한 논문 *"Attention is All You Need"*에서 처음 소개되었습니다. 기존의 순적 처리 방식(RNN LSTM 등)에 의존하던 자연어 모델들과 달리, 트랜스포머...
# 의도 이해 의도 이해(Intent Understanding)는 자연어(Natural Language Processing, N) 분야에서 사용자의 언어이 담고 있는 **목적**이나 **의도**를 정확히 파악하는심 기술입니다. 이는 대화형 시스템, 챗봇, 음성 비서, 고객 서비스 자동화 등 다양한 응용 분야에서 핵심적인 역할을 하며, 사용자가 말한 문장의...
# WordPiece ## 개요 **WordPiece**는 자연어 처리(Natural Language Processing NLP)에서 널리되는 서브워드(Subword) 토크이제이션(Subword Tokenization) 기법 중 하나로, 특히BERT**(Bidirectional Representations from Transformers와 같은 트랜스머...
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
# 오류 탐지 ## 개요 **오류 탐지**(Error Detection)는 자연처리(NLP, Natural Language Processing) 분야에서 텍스트 내에 존재하는 언어적, 문법적, 철자적, 의미적 오류를 자동으로 식별하는 기술을 의미합니다. 이는 텍스트의 품질을 높이고, 사용자에게 정확한 정보를 제공하며, 문서 작성, 교육, 번역, 챗봇 등...
# 논리적 일관 ## 개요 **논리적 일성**(Logical Cons)은 자연어 생성(Natural Language Generation, NLG 시스템이 생성하는 텍스트가부적으로 모순이 일관된 논리 구조를 유지하는 정도를 의미합니다. 즉, 생성된 문장이나 문단들이 서로 충돌하지 않고, 주어진 맥락 속에서 타당한 추론과 연결을 보여야 한다는 원칙입니다. ...
# 질문 응답 ## 개 질문 응답(Questioning, QA) 자연어 처리(Natural Language Processing, NLP)의 핵심야 중 하나로, 주어진 질문에 대해 자연어로 정확한 답변을 생성하거나 추하는 기술을 의미. QA 시스은 단순한 정보 검색을, 질문의 의미를하고, 관련 문서나식에서 정확한을 도출하는 중점을 둔다. 기술은 챗, 가상...
# BART ## 개요 **BART**(Bidirectional and-Regressive Transformer)는 자연어(NLP) 분야에서 텍스트 생성 및 이해 작업에 널리 사용되는 **시퀀스-투-시퀀스**(sequence-to-sequence) 기반의 트랜스포머 아키텍처입니다. 2019년 페이북 AI(Facebook AI, 현재 Meta AI) 연구...
# 학술 논문 요약 개요 **학술문 요약**(Academic Paper Sumization)은 자연처리(NLP, Natural Language Processing)의용 기술 중 하나로, 학적으로 작성된 논문의 주요 내용을 간결하고 정확하게 요약하는 작업을 의미합니다. 이 기술 연구자, 학생, 전문가들이 방대한 양의 학술 자료를 빠르게 이해하고 정보를 ...
# Hugging Face Transformers ## 개요 **Hugging Face Transformers는 자연어처리(NLP)야에서 가장 널 사용되는 오픈소스 소프트웨어 라이브러리 중 하나로, 다양한 사전련된 언어 모델을 쉽게 활용할 수 있도록 설계되었습니다. 이 라이브러리는 주로 **PyTorch**, **TensorFlow**, 그리고 **JA...
# 미세 조정 개요 **미세 조정**(Fine-tuning)은 머신러닝, 특히 딥러닝 분야에서 사전 훈련된(pre-trained) 모델 새로운 과제(task)에 맞게 추가로 훈련하여 성능을 개선하는법입니다. 이은 대규모 데이터셋으로 학습된 모델의 일반적인 특징 추출 능력을 활용하면서도, 특정 도메인이나 목적에 최적화된 성능을 얻을 수 있도록 해줍니다....
# 트랜스포머 ## 개요 **트랜스포머**(Transformer는 2017년 구과 유니버시티 오브 토론토 연구진이 발표한 논문 *"Attention is All You Need"*에서안된 딥러닝 기반의 **시퀀스-투-시퀀스**(sequence-to-sequence) 신경망 아키텍처입니다. 이 모델은 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리...