# AMD Optimizing CPU Libraries AMD Optimizing CPU Libraries(이하 AOCL)는 AMD 프로세서의 성능을 극대화하기 위해 특화된 고성능 수학 라이브러리의 집합입니다. 이 라이브러리는 과학 계산, 머신러닝, 데이터 분석, 고성능 컴퓨팅(HPC) 등 다양한 분야에서 활용되는 핵심 수치 연산을 최적화하여, AMD 기...
검색 결과
"벤치마크"에 대한 검색 결과 (총 33개)
# Sentence-BERT ## 개요 **Sentence-BERT**(SBERT)는 문장 단위의 의미를 고정된 차원의 벡터(임베딩)로 효과적으로 표현하기 위해 개발된 자연어처리(NLP) 모델이다. 기존의 BERT 모델은 토큰 단위의 표현 능력은 뛰어나지만, 문장 전체의 의미를 하나의 벡터로 표현하는 데는 비효율적이었으며, 특히 문장 유사도 계산과 같은...
# EfficientNet-B0 ## 개요 **EfficientNet-B0**은 구글 리서치(Google Research)에서 2019년에 제안한 컨볼루션 신경망(Convolutional Neural Network, CNN) 아키텍처로, **EfficientNet**(Efficient Neural Network) 시리즈의 가장 작은 모델이다. Effic...
# 개체명 인식 ## 개요 **개체명 인식**(Named Entity Recognition, 이하 NER)은 자연어 처리(Natural Language Processing, NLP) 분야의 핵심 기술 중 하나로, 텍스트 내에 등장하는 특정 유형의 명명된 실체(named entities)를 식별하고 분류하는 작업입니다. 예를 들어, "서울은 대한민국의 수...
# FNV-1a ## 개요 FNV-1a(Fowler–Noll–Vo hash function, version 1a)는 빠르고 간단한 비암호화 해시 함수로, 주로 해시 테이블, 데이터 무결성 확인, 고성능 시스템에서의 키 해싱 등에 사용된다. 이 알고리즘은 Glenn Fowler, Landon Curt Noll, Kiem-Phong Vo가 개발하였으며, 원...
# 가짜 뉴스 탐지 ## 개요 가짜 뉴스 탐지(Fake News Detection)는 자연어처리(NLP, Natural Language Processing) 기술을 활용하여 허위 또는 왜곡된 정보를 포함한 뉴스 콘텐츠를 자동으로 식별하는 기술 분야입니다. 디지털 미디어의 급속한 확산과 소셜 미디어의 영향력 증가로 인해 가짜 뉴스는 사회적 갈등, 정치적 ...
# KoBERT ## 개요 **KoBERT**(Korean Bidirectional Encoder Representations from Transformers)는 한국어 자연어 처리(NLP)를 위해 특화된 딥러닝 기반 언어 모델로, Google에서 제안한 BERT 아키텍처를 기반으로 하여 한국어 코퍼스에 추가 학습(Fine-tuning)을 거쳐 개발된 ...
# XSum ## 개요 **XSum**은 자연어처리(NLP) 분야에서 특히 **문서 요약**(text summarization) 연구에 널리 사용되는 영어 기반의 대규모 요약 데이터셋입니다. 이 데이터셋은 BBC 뉴스 기사를 원본 텍스트로, 기사의 핵심 내용을 담은 매우 짧은 요약문을 정답(label)으로 구성하고 있으며, **추출형 요약**(extra...
# 그레이 레벨 공동 발생 행렬 ## 개요 **그레이 레벨 공동 발생 행렬**(Gray-Level Co-occurrence Matrix, 이하 GLCM)은 디지털 이미지의 **텍스처 특성**을 정량적으로 분석하기 위한 대표적인 통계적 기법입니다. 이 기법은 픽셀 간의 회색조 값(그레이 레벨)의 공간적 관계를 행렬 형태로 표현함으로써, 이미지의 거칠기, ...
# OpenWebText ## 개요 **OpenWebText**(OpenWebText Corpus)는 대규모 자연어 처리(NLP) 연구 및 언어 모델 개발을 위해 사용되는 공개 텍스트 코퍼스입니다. 이 코퍼스는 Reddit 플랫폼에서 공유된 외부 웹사이트 링크를 기반으로 수집된 웹 페이지의 텍스트를 크롤링하고 정제하여 구성되었습니다. OpenWebTex...
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
# 프롬프트 기반 추 ## 개요**프롬프트반 추론**(-based Reasoning) 인공지능, 대규모 언 모델(Large Language Models,LM)의 성능을 평가하고 향상시키기 위한 핵심적인 방법론 중 하나입니다 이 기법은 모델이 주어진(프롬프트)을 바으로 논리적 사고, 추론, 해결 능력을 발휘하도록 유도하는 방식으로, 전통적인 지도 학습 방식...
# 조합 가능성 ## 개요 **조합 가능성**(Combin Possibility)은 자연어처리(NLP) 분야, 특히 **의미 분석**(Semantic Analysis) 중요한 개념으로, 언어의 구성 요소들이 어떻게 결합되어 새로운 의미를 생성할 수 있는지를 설명하는 이론적 기반을 제공한다. 이는 문법적 구조와 의미 간의 관계를 이해하고, 문장의 의미를 ...
# 논리적 일관 ## 개요 **논리적 일성**(Logical Cons)은 자연어 생성(Natural Language Generation, NLG 시스템이 생성하는 텍스트가부적으로 모순이 일관된 논리 구조를 유지하는 정도를 의미합니다. 즉, 생성된 문장이나 문단들이 서로 충돌하지 않고, 주어진 맥락 속에서 타당한 추론과 연결을 보여야 한다는 원칙입니다. ...
# 사전 학습 **사전 학습**(Pre-training) 머신러닝, 특히 딥닝 분야에서리 사용되는 학습 전략으로, 모델이 특정 작업에 본격적으로 적용되기 전에 방대한 양의 일반적인 데이터를 통해 기본적인 지식이나 표현 능력을 습득하는 과정을 의미합니다. 이 방법은 주어진 과제(예: 텍스트 분류, 이미지 인식)에 대한 **전이 학습**(Transfer Le...
# 질문 응답 ## 개 질문 응답(Questioning, QA) 자연어 처리(Natural Language Processing, NLP)의 핵심야 중 하나로, 주어진 질문에 대해 자연어로 정확한 답변을 생성하거나 추하는 기술을 의미. QA 시스은 단순한 정보 검색을, 질문의 의미를하고, 관련 문서나식에서 정확한을 도출하는 중점을 둔다. 기술은 챗, 가상...
# BART ## 개요 **BART**(Bidirectional and-Regressive Transformer)는 자연어(NLP) 분야에서 텍스트 생성 및 이해 작업에 널리 사용되는 **시퀀스-투-시퀀스**(sequence-to-sequence) 기반의 트랜스포머 아키텍처입니다. 2019년 페이북 AI(Facebook AI, 현재 Meta AI) 연구...
# T5: Text-to-Text Transfer Transformer ## 개요 **T5**(Text-to-Text Transformer)는 구글(Google) 연구팀이 2019년에 발표한 자연어(NLP) 모델로, 다양한어 이해 및 생성을 **문자 그 하나의 통일된 프레임크**로 처리할 수 있도록계된 대규모 트랜스포머 기반 모델. T5는모든 자연어처리...
# Bias Benchmark for QA ## 개 **Bias Benchmark for QA질문-응답 시스의 편향 평가 벤치마크)는 인공지능 기반 질문-응답(Question Answering, QA 모델에서 발생 수 있는 사회적,화적, 성, 인종적 편향을 체계적으로 평가하기 위해 설계된 벤치마크 데이터셋 및 평가 프레임워크입니다. 최근 대규모 언어 모...
# EfficientNet EfficientNet은 구글(Google) 연구팀이2019년에 발표한 컨볼루션 신경망(Convolutional Neural Network,) 아키텍처, 정확도와산 효율성 사이의 최적 균형을 추하는 것을 목표로 설계되었습니다. 기존의 CNN 모델들이 네트워크의 깊이(depth), 너비(width), 해상도(resolution)를...