# 그레이 레벨 공동 발생 행렬 ## 개요 **그레이 레벨 공동 발생 행렬**(Gray-Level Co-occurrence Matrix, 이하 GLCM)은 디지털 이미지의 **텍스처 특성**을 정량적으로 분석하기 위한 대표적인 통계적 기법입니다. 이 기법은 픽셀 간의 회색조 값(그레이 레벨)의 공간적 관계를 행렬 형태로 표현함으로써, 이미지의 거칠기, ...
검색 결과
"벤치마크"에 대한 검색 결과 (총 25개)
# OpenWebText ## 개요 **OpenWebText**(OpenWebText Corpus)는 대규모 자연어 처리(NLP) 연구 및 언어 모델 개발을 위해 사용되는 공개 텍스트 코퍼스입니다. 이 코퍼스는 Reddit 플랫폼에서 공유된 외부 웹사이트 링크를 기반으로 수집된 웹 페이지의 텍스트를 크롤링하고 정제하여 구성되었습니다. OpenWebTex...
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
# 프롬프트 기반 추 ## 개요**프롬프트반 추론**(-based Reasoning) 인공지능, 대규모 언 모델(Large Language Models,LM)의 성능을 평가하고 향상시키기 위한 핵심적인 방법론 중 하나입니다 이 기법은 모델이 주어진(프롬프트)을 바으로 논리적 사고, 추론, 해결 능력을 발휘하도록 유도하는 방식으로, 전통적인 지도 학습 방식...
# 조합 가능성 ## 개요 **조합 가능성**(Combin Possibility)은 자연어처리(NLP) 분야, 특히 **의미 분석**(Semantic Analysis) 중요한 개념으로, 언어의 구성 요소들이 어떻게 결합되어 새로운 의미를 생성할 수 있는지를 설명하는 이론적 기반을 제공한다. 이는 문법적 구조와 의미 간의 관계를 이해하고, 문장의 의미를 ...
# 논리적 일관 ## 개요 **논리적 일성**(Logical Cons)은 자연어 생성(Natural Language Generation, NLG 시스템이 생성하는 텍스트가부적으로 모순이 일관된 논리 구조를 유지하는 정도를 의미합니다. 즉, 생성된 문장이나 문단들이 서로 충돌하지 않고, 주어진 맥락 속에서 타당한 추론과 연결을 보여야 한다는 원칙입니다. ...
# 사전 학습 **사전 학습**(Pre-training) 머신러닝, 특히 딥닝 분야에서리 사용되는 학습 전략으로, 모델이 특정 작업에 본격적으로 적용되기 전에 방대한 양의 일반적인 데이터를 통해 기본적인 지식이나 표현 능력을 습득하는 과정을 의미합니다. 이 방법은 주어진 과제(예: 텍스트 분류, 이미지 인식)에 대한 **전이 학습**(Transfer Le...
# 질문 응답 ## 개 질문 응답(Questioning, QA) 자연어 처리(Natural Language Processing, NLP)의 핵심야 중 하나로, 주어진 질문에 대해 자연어로 정확한 답변을 생성하거나 추하는 기술을 의미. QA 시스은 단순한 정보 검색을, 질문의 의미를하고, 관련 문서나식에서 정확한을 도출하는 중점을 둔다. 기술은 챗, 가상...
# BART ## 개요 **BART**(Bidirectional and-Regressive Transformer)는 자연어(NLP) 분야에서 텍스트 생성 및 이해 작업에 널리 사용되는 **시퀀스-투-시퀀스**(sequence-to-sequence) 기반의 트랜스포머 아키텍처입니다. 2019년 페이북 AI(Facebook AI, 현재 Meta AI) 연구...
# T5: Text-to-Text Transfer Transformer ## 개요 **T5**(Text-to-Text Transformer)는 구글(Google) 연구팀이 2019년에 발표한 자연어(NLP) 모델로, 다양한어 이해 및 생성을 **문자 그 하나의 통일된 프레임크**로 처리할 수 있도록계된 대규모 트랜스포머 기반 모델. T5는모든 자연어처리...
# Bias Benchmark for QA ## 개 **Bias Benchmark for QA질문-응답 시스의 편향 평가 벤치마크)는 인공지능 기반 질문-응답(Question Answering, QA 모델에서 발생 수 있는 사회적,화적, 성, 인종적 편향을 체계적으로 평가하기 위해 설계된 벤치마크 데이터셋 및 평가 프레임워크입니다. 최근 대규모 언어 모...
# EfficientNet EfficientNet은 구글(Google) 연구팀이2019년에 발표한 컨볼루션 신경망(Convolutional Neural Network,) 아키텍처, 정확도와산 효율성 사이의 최적 균형을 추하는 것을 목표로 설계되었습니다. 기존의 CNN 모델들이 네트워크의 깊이(depth), 너비(width), 해상도(resolution)를...
# PyPy PyPy는 파이썬 프로그래밍어의 대표적인 **대 구현**(alternative) 중 하나로, 성능 향상을 목적으로 설계된 오픈소스 프로젝트입니다. 공식 CPython 인터프리터와 호환되며, 특히 **JIT**(Just-In-Time) 컴파일러를 내장하고 있어 반복적인 작업이나 계산 집약적인 코드에서 뛰어난 실행 속도를 제공합니다. 이 문서에서...
# MurmurHash **MurmurHash**는 고능 해시 함수리즈로, 특히 빠른 속도와 우수한 분포 특 덕분에 다양한 소프트웨어 시스템에서 널리 사용되고 있습니다. 이 해시 알고리즘은 2008년에 오스틴 아펠(Austin Appleby)에 의해 개발되었으며, 이름의 "Murmur"은 "속삭임"을 의미하며, 해시 함수가 데이터를 빠르게 처리하는 방식에...
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...
# 스킵-그램 (-gram) ## 개요 스킵-그램(Skip-gram)은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는어 모델링 기법으로 **워드 임베딩**(Word Embedding) 생성하는 데 핵심적인 역할을 한다. 스킵-그램은 2013년 토마스 미코로프(Tomas Mikolov)와 구글 연구팀이 제...
# ROUGE ## 개요 ROUGE(RCALL-Oriented Understudy for Gisting Evaluation)는 자연어 처리(Natural Language Processing, NLP) 분야에서 주로 **자동 요약**(Automatic Summarization) 또는 **기계 번역**(Machine Translation) 시스템의 출력 결...
# Semantic Role Labeling ## 개요 **의 역할 태깅Semantic Role Labeling,하 SRL) 자연어처리(NLP) 분에서 문장 내의 의미 구조를 분석하는 핵심 기 중 하나입니다.RL은 문장에서서사**(predicate)를 중심으로 그변에 등장하는 구성 요소들이 어떤 **의미적 역할**(semantic role)을 수행하는지...
# 의미 추론 ## 개요 **의미 추론**( Inference)은 자연어처리(Natural Language Processing, NLP) 분야에서 핵심적인 기술 중 하나로, 주어진 텍스트의 **암시적 의미**를 분석하고, 명시되지 않은 정보를 논리적으로 도출하는 과정을 말합니다. 이는 단한 단어나 문장의 의미를 파악하는 것을 넘어서, 문맥, 배경 지식,...
# WebText2 ## 개요 **WebText2**는 대규모 텍스트 데이터셋 중 하나로, 주로 자연어(NLP) 및 언어 모델 훈련을 위한 목적으로 개발된 데이터 수집 프로젝트의 결과물입니다. 이 데이터셋은 인터넷 상의 다양한 공개 텍스트 자원을 크롤링하여 구축되었으며, 특히 **GPT-2**(Generative Pre-trained Transforme...