# 합성곱 신망 ## 개요 **합성곱경망**(Convolutional Network, 이하 CNN)은공지능, 컴퓨터 비전(Computer) 분야에서 가장 핵심적인 신경망 모델 하나입니다. CNN 이미지, 비디오 음성 등의 **격자 형태**(grid-like) 데이터를 효율적으로 처리할 수 있도록 설계된 심 신경망 구조로,의 시각 시스템을 모방한 아키텍처...
검색 결과
"파라미터"에 대한 검색 결과 (총 185개)
# 확률적 경사 하강법 ## 개요 **확적 경사 하강**(Stochastic Gradientcent, 이하 SGD은 머신러닝 데이터과학 분야에서 널리 사용되는 최적화 알고리즘 중 하나로, 손실(Loss Function)를 최화하기 위해 모델의 파라미터 반복적으로 업데이트하는 방법입니다. 특히 대규모 데이터셋을 처리할 때 전통적인 경사 하강법(Batch ...
# 디피-헬만 키환 ## 개요 **디-헬만 키 교환**(ie-Hellman Key Exchange,KE)은 두 통신 당자가 안전하지 않은 채널을 통해 **공유밀 키**(Shared Secret)를 안전하게 교환할 수 있도록 하는 암호학적 프로토콜입니다. 방법은 1976 스탠퍼드 대학교의 **화이트필드 디피**(Whitfield Diffie)와 **마틴 ...
# PWM ## 개요 **PWM**(Pulse Width Modulation, 펄스 폭 변조)는 아날로그 신호를 디지털 방식 제어하거나 표현 위한 핵심 전자공학 기술 중 하나입니다. PWM은 일정한 주파수를 유지하면서 펄스의 **폭**(즉, 고전압 상태가 유지되는 시간)을 조절함으로써 평균 전력 또는 전압을 가변적으로 제어할 수 있게 해줍니다. 이 기술...
# TM ## 개요 **TM**(Transverse Mercator, 횡축통도법)은 지리시스템(GIS)에서 널리 사용되는 지도 투영법 중 하나로, 특히 좁은 경도 범위를 가진 지역의 정밀한 지도 제작에 적합합니다. TM은 메르카토르 도법의 변형으로, 원통이 지구와 극지점이 아닌 자오선(경선)을 따라 접하게 되어 있으며, 이를 통해 특정 경도를 중심으로 ...
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
# GPT ## 개요 GPT(G Pre-trained Transformer) 오픈AI(OpenAI)에서 개발한 **대규모 언어 모델**(Large Language Model, LLM) 시리즈로, 자연어 처리(NLP) 분야에서 혁신적인과를 이룬 대표적인 생성형 인공지능 모델이다. GPT는 **변환기**(Transformer) 아키텍처를 기반으로 하며, 방...
# Conv2D Conv2D는 컨볼루션 신경(Convolutional Neural, CNN)에서 이미지와 같은 2차원 데이터를 처리하기 위해 사용되는 핵심 레이어로, "2D 컨볼루 레이어"를 의미합니다. 딥러, 특히 컴퓨터 비전(Computer Vision) 분야에서 이미지의 공간적 구조를 효과적으로 학습하기 위해 널리 사용되며, 이미지 분류, 객체 인식...
# 에포크 ## 개요 머신러닝 모델 훈련 과정에서 **에포크**(Epoch)는 학습 데이터 전체를 한 번 완전히 통과하여 모델이 학습을 수행하는 단위를 의미합니다. 즉, 훈련 데이터셋에 포함된 모든 샘플이 모델에 한 번 입력되어 가중치가 업데이트되는 과정을 **1 에포크**라고 정의합니다. 에포크는 모델 훈련의 핵심 하이퍼파라미터 중 하나로, 학습의 깊...
# 임베딩 계층## 개요 **임베 계층**(Embedding Layer)은 인공지능, 특히 자연어(NLP)와천 시스템 등에서 범주형 데이터를 고차원 실수 벡터로 변환하는 핵심적인 신경망 구성 요소입니다.로 단어, 토큰, 사용자 ID, 상품 카테고리와 같은 이산적(discrete)이고 정수로 표현되는 입력값을 밀집된(dense) 실수 벡터 형태로 매핑하여,...
# Dense ## 개요 **Dense**는 인공지, 특히 **신경망**(Neural Network)의 구성 요소 중 하나로, **완전 연결층**(Fully Connected Layer이라고도 불립. 이 층은 신망의 기본적인조 단위로서 입력 노드와 출력드 사이의 모든 가능한을 포함하고 있습니다 딥러닝 모델에서 주로 분류, 회귀 등의 최종 출력을 생성하거...
# 학습률 스케줄링 ## 개요 **학습률 스케줄링**(Learning Scheduling)은신러닝, 특히러닝 모델의 훈련 과정에서 학습률(Learning Rate)을 훈련 중 동적으로 조정하는 기법입니다. 학습률은 경사하강법(Gradient Descent)을 통해 모델의 가중치를 업데이트할 때 적용되는 스케일링 인자로, 너무 크면 최적해를 지나치고, 너...
# 일반화 기법 ## 개요 머신러닝 모델이 훈련 데이터에 잘추는 것(과적합, overfit)은 중요하지, 더 중요한 것은 **델이 이전 본 적 없는 새로운 데이터**(테스트)에 대해서도 작동하는 것이다. 이 능력을 **일화**(generalization라고 하며, 머신러닝의 핵심 목표 중 하나이다. 일반화 성을 향상시키기 위해 사용하는 다양한 전략과 기...
# 모델 훈련 ## 개요 모델 훈련(Model)은 머신닝(Machine Learning) 핵심 과정, 주어진 데이터를 기반으로 모델이 특정 작업을 수행할 수 있도록 학습시키는 절차를 의미합니다. 이 과정에서 알고리즘은 입력 데이터와 정답(라벨) 사이의 관계를 학습하여, 새로운 데이터에 대해 정확한 예측이나 판단을 내릴 수 있는 능력을 획득하게 됩니다. ...
순서형 로스틱 회귀 ## 개요**순서형 로지스 회귀**(Ordinal Regression)는 종속(dependent variable)가 **서형 범주**(ordinal categorical)일 때 사용하는 통계적 회귀석 기법이다. 일반적인 로지스틱 회귀가 이진(binary) 또는 명목형(nominal) 범주형 변수를 예측하는 데 사용된다면, 순서형 로지스...
# 백그라운드기 백그라운드 쓰기(Background Writing)는 운영제의 성능 최적화 기 중 하나로,로 파일 시스템 메모리 관리 영역에서 사용된다. 이 기법은 시템의 응답성과 전체적인 처리 효율을 높이기 위해, 사용자 또는 애플리케이션 요청이 아닌 시스템부에서 비동기적으로 데이터를 저장 장치에 기록 방식을 의미한다. 특히 캐시된 데이터나 수정된 페이...
# 미세 조정 개요 **미세 조정**(Fine-tuning)은 머신러닝, 특히 딥러닝 분야에서 사전 훈련된(pre-trained) 모델 새로운 과제(task)에 맞게 추가로 훈련하여 성능을 개선하는법입니다. 이은 대규모 데이터셋으로 학습된 모델의 일반적인 특징 추출 능력을 활용하면서도, 특정 도메인이나 목적에 최적화된 성능을 얻을 수 있도록 해줍니다....
# 트랜스포머 ## 개요 **트랜스포머**(Transformer는 2017년 구과 유니버시티 오브 토론토 연구진이 발표한 논문 *"Attention is All You Need"*에서안된 딥러닝 기반의 **시퀀스-투-시퀀스**(sequence-to-sequence) 신경망 아키텍처입니다. 이 모델은 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리...
# OneHotEncoder ##요 **OneHotEncoder**는 머신러닝 및 데이터 과 분야에서 범주형 데이터(c data)를 모이 처리할 수 있는 수치 형태로 변환 위해 사용되는 전처리 도구입니다. 사이킷런(Scikit-learn 라이브러리에서 제공하는 `sklearn.preprocessing.OneHotEncoder 클래스는 범주 변수를 **원...
# 해싱 트릭## 개요 **해싱 트**(Hashing Trick)은 기 학습 및 데이터 과학 분야 고차원의 범주형 데이터를 효율적으로 처리하기 위한 기술이다. 특히 자연어 처리(NLP)나 대규모 범주형 피처를 다룰 때, 원-핫 인코딩(Oneot Encoding)과 같은 전통적인 인코 방식이 메모리와 계산 자원을 과도하게 소모하는 문제를 해결하기 위해 제안...