# num_leaves `num_leaves`는 그래디언트 부스팅 머신 러닝 알고리즘 중 하나인 **LightGBM**(Light Gradient Boosting Machine)에서 중요한 하이퍼파라터로, 각각의 결정 트리(decision tree) 가질 수 있는 **최대 잎 노드 수**(maximum number of leaf nodes)를 지정합니다....
검색 결과
"학습 속도"에 대한 검색 결과 (총 29개)
# LightGBM GBM은 마이크로소프트에서 개발한성능의 경량 그래디언트 부스팅 프레임워크로, 대규모 데이터셋을 빠르고 효율적으로 처리할 수 있도록 설계된 지도 학습 알고리즘. 특히 분류, 회귀, 순위 예 등의 머신러 태스크에서 뛰어난 성능을 보이며, XGBoost, CatBoost와 함께 대표적인 그래디언트 부스팅 트리(Gradient Boosting...
# 픽셀 값 재정 ## 개요 **셀 값 재조정**(Pixel Value Rescaling)은 디지털 이미지 처리에서 각 픽셀의 밝기 또는상 값을 특정 범위로 변환하는 기법을 말합니다. 이 과정은 이미지의 시각적 품질을 개선하거나, 머신 러닝 모델 학습을 위한 데이터 전처리 단계에서 매우 중요하게 활용됩니다. 예를 들어, 원본 이미지의 픽셀 값이 0~25...
# BERT ## 개요 **BERT**(Bidirectional Encoder Represent from Transformers)는어 처리(NLP)야에서 혁신적인과를 이룬러닝 기반 언어 모델로, 구글(Google) 연구팀이 2018년에 발표한 머신러닝 모델이다. BERT는 이전의 단방향 언어 모델들과 달리 **양방향 컨텍스트**(Bidirectional...
# Bidirectional Encoder Represent from Transformers ## 개요 **Bid Encoder Representations from Transformers**(BERT는 자연어 처리(NLP) 분야 혁신적인 성를 이룬 언어델로, 018년글(Google) 연구에 의해 개발. BERT는 이전의 단방향 언어 모델들(예: GPT...
# RNN ##요 RNN(Recurrent Neural Network 순환 신경)은 **시계 데이터**(time-series) 또는 **순적 데이터**(sequential data를 처리하기 위해계된 딥러 기반의 신경 모델입니다.적인 피드포워 신경망(for neural network)이 데이터 간의 시간적 순서적 관를 고려하지 반면, RNN **과거의를...
# 그래디언트 부스 회귀 ## 개요 **그래디언트 부스팅 회**(Gradient Boosting Regression)는 머신러닝에서 회귀(regression) 문제를 해결하기 위해 사용되는 강력한 앙상블 학습 기법입니다. 이은 여러 개의 약한 학습기(weak learners), 주로 결정 트리(decision tree)를 순차적으로 결합하여 강한 예측 ...
# 자기 주의 자기 주의(자기어텐션, Self-Attention)는 딥러닝, 특히 인공지능 자연어 처리(NLP) 분야에서 핵심적인 역할을 하는 신망 구성 요소. 이 메커니즘은 입력 시퀀스 내의 각 요소가 다른 요소들과 어떻게 관계되는지를 모델이 학습할 수 있도록 하며, 전통적인 순환 신경망(RNN)이나 합성곱 신경망(CNN)보다 더 유연하고 강력한 표현 ...
# 스킵-그램 (-gram) ## 개요 스킵-그램(Skip-gram)은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는어 모델링 기법으로 **워드 임베딩**(Word Embedding) 생성하는 데 핵심적인 역할을 한다. 스킵-그램은 2013년 토마스 미코로프(Tomas Mikolov)와 구글 연구팀이 제...
# SVM (서포트 벡터 머신) 서포트 벡터 머신(Support Vector Machine, SVM은 머신러닝 분에서 널리 사용되는 지도 학습 기반의 **분류 알고리즘**으로, 주로 이진 분류 문제에 사용되지만 다중 클래스 분류에도 확장 가능하다. SVM은 데이터 포인트를 고차원 공간으로 매핑하여 최적의 경계선(hyperplane)을 찾아 서로 다른 클래...
# 딥러닝 아키텍 딥러닝 아키텍처는 인지능(Artificial Intelligence, AI의 핵심 기 중 하나로, 인공경망(Artificial Network)을 기반으로 복잡한 데이터 패턴을 학습하고 인식하는 구조를 의미합니다. 특히, 수많은 은닉층(hidden layers)을 포함하는 심층 신경망(deep neural network)을 통해 고차원 데...
GloVe ##요 **GVe**(Global Vectors for Word)는 스탠포드 대학교의 제프리 펜팅턴(Jeffrey Pennington), 리처드 소처(Richard Socher), 크리스토퍼 맨닝(Christopher D. Manning)이 2014년에 제안한 단어 임베딩(word embedding) 기법입니다. GloVe는 단어의 의미를 실...
# FastText FastText는 페이스북(Facebook AI Research, FAIR)에서 개발한 오픈소스 라이브러리로, 텍스트 표현 학습과 텍스트 분류를 위한 효율적인 머신러닝 도구입니다. 특히 단어 임베딩 생성과 텍스트 분류 작업에서 뛰어난 성능을 보이며, 기존의 Word2Vec과 비교해 하위 문자 단위(subword) 정보를 활용함으로써 희...
# 트랜스포머 ## 개요 **트랜스포머**(Transformer)는 자연어처리LP) 분야 혁신적인 영향을 미친 딥러닝 아키텍처로, 2017년글과 빌런드 연구소의 연구자들이 발표한 논문 *"Attention is All You Need"*에서 처음 소개되었습니다. 기존의 순차적 처리 방식을 기반으로 한 순환신경망(RNN)이나 합성곱신경망(CNN)과 달리,...
# 특성 ## 개요 데이터과학에서 **특성**(Feature)은 데이터 분석, 머신러닝, 통계 모델링 등에서 사용되는 기본 단위의 입력 변수를합니다. 특성 관측값이나 샘플의 속성을 수치적 또는 범주적으로 표현한 것으로, 모델이 예측하거나 분류를 수행하는 데 핵심적인 역할을 합니다. 예를 들어, 주택 가격 예측 모델에서 ‘방의 수’, ‘면적’, ‘지역’ ...
# 배치 정규화 개요 **배치 정규화**(Batch Normalization, 이하 배치정규화)는 딥러닝 모델의 학습 속도를 향상시키고, 학습 과정을 안정화하기 위해 제안된 기술이다. 2015년 세르게이 이고르(Sergey Ioffe)와 크리스티안 슈미트(CChristian Szegedy)가 발표한 논문 *"Batch Normalization: Acc...
# 정규화 ## 개요 정규화(Normalization)는 데이터과학과 머신러닝 분야에서 모델의 성능을 향상시키고 학습 과정을 안정화하기 위해 사용되는 핵심 기법 중 하나입니다. 주로 입력 데이터나 모델 내부의 활성값(activations)을 특정 범위나 분포로 조정함으로써 기울기 소실(gradient vanishing) 또는 기울기 폭주(gradient...
# Skip-gram ## 개요 **-gram**은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는 **단어 임베딩**(Word Embedding) 기법 중 하나로, **워드투벡**(Word2Vec) 모델의 두 가지 아키텍처 중 하나이다. 다른 하나는 CBOW(Continuous Bag of Words)이...
# 기계 학습 전처리 기계 학습 전처리(Machine Learning Preprocessing)는 원시 데이터를 기계 학습 모이 효과적으로 학습할 수 있도록 변환하고 준비하는 일련의 과정을 의미합니다. 모델의 성능은 학습 알고리즘뿐 아니라 데이터의 질에 크게 의존하므로, 전처리는 기계 학습 프로젝트에서 가장 중요한 단계 중 하나로 꼽힙니다. 이 문서에서는...
# Large Language Model ## 개요 **Large Language Model**(대규모 언어 모델, 이하 LLM)은 자연어를 이해하고 생성할 수 있도록 설계된 심층 신경망 기반의 인공지능 모델로, 수십억에서 수조 개의라미터를진 대규모 구조를징으로 합니다. 이 모델들은 방대한 양의 텍스트 데이터를 기반으로 사전 학습(pre-training...