# EfficientNet EfficientNet은 구글(Google) 연구팀이2019년에 발표한 컨볼루션 신경망(Convolutional Neural Network,) 아키텍처, 정확도와산 효율성 사이의 최적 균형을 추하는 것을 목표로 설계되었습니다. 기존의 CNN 모델들이 네트워크의 깊이(depth), 너비(width), 해상도(resolution)를...
검색 결과
"계산 비용"에 대한 검색 결과 (총 165개)
# 교차 검증 ## 개요 **교차 검**(Cross-Validation, CV) 기계학습 통계 모델의 성능을가하고 과적(overfitting) 방지하기 위해 사용되는 기법입니다. 모델이 훈련 데이터만 잘 맞추어져 새로운 데이터에 대해서는 성능이 저하되는 문제를 사전에 검출하기 위해, 데이터를 여러 번 나누어 학습과 검증을 반복하는 방식으로 작동합니다. ...
# 자동 번역 자동 번역(Automated Translation) 인간의 개입 없이 컴퓨터 시스템을 이용해 한 언어로 작성된 텍스트를 다른 언어로 변환하는 기술을 말합니다. 이는 자연어 처리(Natural Language Processing, NLP)의 핵심 분야 중 하나이며, 데이터과학과 인공지능(AI) 기술의 발전에 힘입어 최근 몇 년 사이 급속도로 ...
Adjusted R-s ## 개요**Adjusted R-squared수정된 결정계수)는귀분석에서 모의 적합도를 평가하는 지표 중 하나로, 일반적인 **R-squared**(결계수)의계를 보완하기 위해 제안된 통계량이다. R-squared 독립변수들이 종속변수를 잘 설명하는지를 나타내는 값이지만, 독립변수를 추가할수록 무조건 증가하는 성향이 있어 모델의 과...
# TF-IDF 가중 평균베딩 ## 개요 -IDF 가중 평균 임딩(TF-IDF Weighted Averageding)은 자연처리(NLP)에서나 문장의 의미를 수치터로 표현하기 위한 대표적인 기술 중 하나입니다. 방법은 단어 임베딩(word)과 TF-IDF(term-inverse document frequency)중치를 결합하여, 문서 내 각 단어의도를 ...
# 장기 기억 신경망## 개요 **장기 신경망**(Long Short-T Memory, LSTM)은 순환 신망(Recurrent Neural Network,NN)의 한형으로, 시계열 데이터나 순차적 데이터를 효과적으로 처리하기 위해 설계 인공신경망 구조입니다. 전통적인 RNN은 장기 의존성(long-term dependencies) 문제, 즉 오래된 정보...
# Sentence-BERT **Sentence-BERT**(SBERT)는 문장 단위의 의미를 효과적으로 인코딩하기 위해 개발된 **문장 임베딩**(sentence embedding)델로, 기존 BERT 모델의계를 보완하여 문장 간 유사도 계산, 의미 비교, 클러스터링, 검색 등 다양한 자연어처리(NLP) 과제에서 뛰어난 성능을 보여줍니다. SBERT는 ...
# 필터 방법 ## 개요**필터 방법**( Method)은 데이터과학, 특히 머신러닝과 통계 모델링에서 **특성 선택**(Feature Selection)을 수행하는 대표적인 기법 중 하나입니다. 이은 모델 훈련 과정에 의존하지 않고, 데이터 자체 통계적 특성만을 기반으로 각 특성의 중요도를 평가하여 불필요하거나 중복된 변수를 제거하는 것을 목표로 합니다...
시간 영역 정규 **시간 영역 정규**(Time Domain Normalization, T)는 음성식 시스템에서 음성 신호의 시간적 변동성을 보정하기 위한 전처리 기법 중 하나이다. 인간의 발화 속도는 상, 감정, 개인 차이 등에 따라 크게 달라질 수 있으며, 이로 인해 동일한 단어나 문장이라도 길이가 다르게 나타날 수 있다. 시간 영역 정규화는 이러한 ...
# Paragraph2Vec ## 개요 **Paragraph2Vec**(또는 **Doc2Vec**)은 자연어처리(NLP) 분야에서 문서(Document) 또는 문단(Paragraph)을 고정된 차원의 밀집 벡터(Dense Vector)로 표현하는 기술입니다. 이 기술은 단어 수준의 표현 학습인 **Word2Vec**의 확장판으로, 단어가 아닌 더 큰 텍...
# 하이퍼파라미터적화 ## 개요 하이퍼파라미터 최적화(Hyperparameter Optimization)는 머신러닝 모델의 성능을 극대화하기 위해 모델 학습 전에 설정해야 하는 **하이퍼파라미터**(Hyperparameter)의 최적 값을 탐색하는 과정입니다. 하이퍼파라미터는 모델의 구조나 학습 방식을 결정하는 중요한 설정값으로, 예를 들어 학습률(Le...
# 공출현 행렬 ## 개요 **공출 행렬**(Co-occurrence)은 자연어처리(Natural Language Processing, NLP) 분야에서 언어의 통계적 구조를 분석하고 단어 간의 의미적 관계를 모델링하는 데 핵심적으로 사용되는 데이터 구조이다. 이 행렬은 특정한 문맥 창(window) 내에서 함께 등장하는 단어들의 빈도를 기록함으로써, ...
# FCS ## 개요 **FCS**(Frame Check Sequence, 프레임 검 순서)는 데이터 통신에서 전송된 프레임(Frame의 무결성을 검사하기 위해 사용되는 오류 검출 기법 중 하나입니다. 주로 링크 계층(Data Link Layer)에서레임 단위로 전송되는 데이터에 대해 전송 중 발생할 수 있는 비트 오류를 탐지하는 데 목적이 있습니다. ...
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...
# 파인튜닝 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 머신러닝 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 개선하는 기법입니다. 주로 딥러닝 기반의 대규모 모델, 특히 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등에서 널리 사용되며, 전이 학습(Transfer Learning)의 한 형태로 간...
# 장기 의존성 연어처리(Natural Language, NLP) 분야에서장기 의존성**(Long-term dependency)은 언어의 구조적 특성 중 하나로, 문장이나 텍스트 내에서 멀리 떨어져 있는 단어나 구절 사이의 의미적, 문법적 관계를 유지하고 이해하는 능력을 의미합니다. 이는 자연어가 가지는 순차적이고 맥락 의존적인 특성에서 비롯되며, 인공지...
# Universal Sentence Encoder **Universal Encoder**(유니버설 문장 인코더, 이하 USE)는 구글이 개발한 자연어 처리(NLP) 모델로 문장을 고정된 차원의 의미 벡터(임베딩)로 변환하는 데 특화된 딥러닝 기반 임베딩 기술이다. 이 모델은 다양한 언어와 문장 구조에 대해 일반화된 의미 표현을 제공하며, 분류, 유사도 ...
# 감정 분석 ## 개요 감정 분석Sentiment Analysis)** 자연어처리(NLP의 핵심 기술 중 하나로,스트 데이터에 내재된 사용자의정, 태도, 의견 등을 자동으로 식별하고 분류하는 과정을 의미합니다. 이 기술은 소셜 미디어 리뷰, 고객 피드백, 뉴스 기사, 설문 조 응답 등 다양한 텍스트 소스에서 긍정, 부정, 중립의 감정 범주를 추출하거나...
# MobileNet **MobileNet**은 구글(Google)이 개발한 경량화된 컨볼루션 신경망(Convolutional Network, CNN)키텍처로, 모바일 기기 및 임베디드 시스템과 같은 제한된 컴퓨팅 자원 환경에서 실시간 이미지 인식 및 객체 탐지를 가능하게 하기 위해 설계되었다. MobileNet은 정확도와 속도 사이의 균형을 잘 유지하면...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...