# 기업 리포트 요약 ## 개요 기업 리포트 요약은 자연어처리(N Language Processing, NLP)술의 응용야 중 하나로, 기업이 발행한 재무 보고서, 사업 보고서 지속가능성 보고서, 연례 보고서 등의 긴 텍스트 문서를 분석하여 핵심 정보를 간결하고 명확하게 요약하는 기술을 의미한다. 이 기술은 투자자, 경영진, 분석가, 정책 입안자 등 다...
검색 결과
"HuggingFace"에 대한 검색 결과 (총 45개)
# T5: Text-to-Text Transfer Transformer ## 개요 **T5**(Text-to-Text Transformer)는 구글(Google) 연구팀이 2019년에 발표한 자연어(NLP) 모델로, 다양한어 이해 및 생성을 **문자 그 하나의 통일된 프레임크**로 처리할 수 있도록계된 대규모 트랜스포머 기반 모델. T5는모든 자연어처리...
기사 요약 ## 개요 기사 요약(Articlemarization)은 자연어(Natural Language Processing, NLP) 기의 주요 응용 분야 중 하나로, 긴 기사나 텍스트의 핵심을 간결하고 정확하게 요약하는 작업을 말한다. 정보 과부하 시대에 사용자가 대량의 텍스트에서 핵심 정보를 빠르게 습득할 수 있도록 돕는 기사 요약 기술은 뉴스 플...
# 파인튜닝 ## 개요 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 머신러닝 모델을 특정 과제나 도메인에 맞게 추가로 훈련하여 성능을 개선하는 과정을 의미합니다. 자연어처리(NLP, Natural Language Processing) 분야에서 파인튜닝은 전이학습(Transfer Learning)의 핵심 기법으로 자리 잡았...
# Bias Benchmark for QA ## 개 **Bias Benchmark for QA질문-응답 시스의 편향 평가 벤치마크)는 인공지능 기반 질문-응답(Question Answering, QA 모델에서 발생 수 있는 사회적,화적, 성, 인종적 편향을 체계적으로 평가하기 위해 설계된 벤치마크 데이터셋 및 평가 프레임워크입니다. 최근 대규모 언어 모...
# 텍스트 요약## 개요 **텍스트 요약**( Summarization)은 자연어처리(Natural Language Processing, NLP)의 주요 응용 기술 중 하나로, 주어진 텍스트의 핵심 내용을 보하면서 그 길이를 줄여 요약본 생성하는 작업을 말한다. 정보 과부하 시대에 대량의 텍스트 데이터 효율적으로 소화하고 이해하기 위해 텍스트 요약 기술은...
# BERT ## 개요 **BERT**(Bidirectional Encoder Represent from Transformers)는어 처리(NLP)야에서 혁신적인과를 이룬러닝 기반 언어 모델로, 구글(Google) 연구팀이 2018년에 발표한 머신러닝 모델이다. BERT는 이전의 단방향 언어 모델들과 달리 **양방향 컨텍스트**(Bidirectional...
# 요약 생성 ## 개요 **요약 생성**(Summarization)은 자연어처리(NLP, Natural Language Processing) 분야의 핵심 응용 기술 중 하나로, 긴 텍스트의 핵심 정보를 보존하면서 더 짧고 간결한 형태로 재구성하는 작업을 말합니다. 이 기술은 정보 과잉 시대에 사용자가 방대한 텍스트 자료(예: 뉴스 기사, 학술 논문, ...
# CLIP: 컨텍스트 기반 다중 모달 모델 ## 개요 **CLIPContrastive Language–Image Pre-training)은 OpenAI에서 2021에 발표한 **티모달 인공지능 모델**로, 이미지와 텍스트 간의 관계를 학습하여 시각적 정보와 언어 정보를 동시에 이해하는 능력을 갖춘 대표적인 모델입니다. CLIP은 전통적인 컴퓨터 비전 ...
# WordPiece ## 개요 **WordPiece**는 자연어 처리(Natural Language Processing, NLP 분야에서 널리 사용되는 하위 어휘(subword) 토큰화 기법 중 하나로, 특히 **BERT**(Bidirectional Encoder Representations from Transformers) 모델에서 기본 토큰화 방식...
어휘 확장자연어처리(NLP, Natural Language Processing) 모델 성능은 모델이 이해하고 처리할 수 있는 어휘의 범위에 크게 영향을 받습니다. 특히 언어는 지속적으로 진화하고, 새로운 단어, 줄임말, 신조어, 전문 용어 등이 등장하기 때문에, 모델의 어휘가 고정되어 있을 경우 성능 저하가 불가피합니다. **어휘 확장**(Vocabular...
# ROUGE ## 개요 ROUGE(RCALL-Oriented Understudy for Gisting Evaluation)는 자연어 처리(Natural Language Processing, NLP) 분야에서 주로 **자동 요약**(Automatic Summarization) 또는 **기계 번역**(Machine Translation) 시스템의 출력 결...
# 자연어처리 자연어처리(Natural Language Processing, NLP는 컴퓨터가 인간의 언어를 이해하고 생성할 수 있도록 하는 인공지능의 한 분야입니다. 인간이 일상적으로 사용하는 언어(자연어)는 문법적 구조, 맥락, 암시, 감정 등 복잡한 요소를 포함하고 있어, 이를 기계가 정확히 해석하고 응답하는 것은 오랜 기간 동안 어려운 과제였습니다...
# 의미 추론 ## 개요 **의미 추론**( Inference)은 자연어처리(Natural Language Processing, NLP) 분야에서 핵심적인 기술 중 하나로, 주어진 텍스트의 **암시적 의미**를 분석하고, 명시되지 않은 정보를 논리적으로 도출하는 과정을 말합니다. 이는 단한 단어나 문장의 의미를 파악하는 것을 넘어서, 문맥, 배경 지식,...
# Masked Language Model ##요 **Masked Language Model**(MLM, 마스크된 언어 모델)은 자연어 처리(NLP) 분야에서 대표적인 언어 모델링 기법 중 하나로, 입력 문장의 일부 단어를 임의로 "마스킹"하여, 모델이 해당 위치의 원래 단어를 예측하도록 학습하는 방식이다. 이 기법은 주로 **BERT**(Bidirec...
# Tokenization ## 개요 **토큰화(Tokenization)**는 자연어처리(Natural Language Processing, NLP)의 핵심 전처리 단계 중 하나로, 텍스트를 있는 단위인 **토큰**(Token)으로 나누는 과정을 의미합니다. 이 과정은 언어의 구조를 컴퓨터가 이해하고 처리할 수 있도록 변환하는 첫 번째 단계로, 이후의 ...
# 트랜스포머 ## 개요 **트랜스포머**(Transformer)는 자연어처리LP) 분야 혁신적인 영향을 미친 딥러닝 아키텍처로, 2017년글과 빌런드 연구소의 연구자들이 발표한 논문 *"Attention is All You Need"*에서 처음 소개되었습니다. 기존의 순차적 처리 방식을 기반으로 한 순환신경망(RNN)이나 합성곱신경망(CNN)과 달리,...
# RoBERTa ## 개요 RoBERTa(**Robustly Optimized BERTtraining Approach**)는 자연어 처리(NLP) 분야에서 널리 사용되는 언어 모델로, BERT(Bidirectional Encoder Representations from Transformers)를 개선하여 더 강력하고 효율적인 성능을 발휘하도록 설계된 ...
# 파인튜닝 ## 개요 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 인공지능 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 최적화하는 기법입니다. 주로 딥러닝 기반의 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등 다양한 분야에서 널리 사용되며, 전이 학습(Transfer Learning)의 핵심 ...
# BERT ##요 BERT(Bidirectional Encoder Represent from Transformers)는글(Google)이 018년에 발표한 자연어 처리(N) 분야의 획기적인 언어 모델이다.ERT는 이전의 단방향 언어 모들과 달리 **방향 맥락**(bidirectional context)을 학습함으로써 단어의 의미를 보다 정확하게 이해할...