# 계산 그래프 **계산 그래프Computational Graph)는 수학적 연산이나 함수의 계산 과정을 **방향성 그래프**(Directed Graph) 형태로 표현한 자료 구조입니다. 이는 인공지능, 특히 딥러 모델의 학습 과정에서 **전파**(Backpropagation)를율적으로 수행하기 위해 핵심적인 역할을 합니다. 계산 그래프는 입력값에서 출력...
검색 결과
"활성화 함수"에 대한 검색 결과 (총 45개)
# MobileNet **MobileNet**은 구글(Google)이 개발한 경량화된 컨볼루션 신경망(Convolutional Network, CNN)키텍처로, 모바일 기기 및 임베디드 시스템과 같은 제한된 컴퓨팅 자원 환경에서 실시간 이미지 인식 및 객체 탐지를 가능하게 하기 위해 설계되었다. MobileNet은 정확도와 속도 사이의 균형을 잘 유지하면...
# 최적의 경계선 ## 개요 **최적 경계선**(Optimal Decision)은 머신러닝, 지도 학습(Supervised Learning)에서 분류(Classification) 문제 해결할 때 사용 핵심 개념 중 하나. 이는 서로 다른 클래스에 속한 데이터 포인트들을 가장 잘 구분할 수 있는 기하학적 경계를 의미합니다. 최적의 경계선은 모델이 새로운 ...
# 시그모이드 함수 ## 개요 시모이드 함수(Sigmoid Function)는 S자 형태의 곡선을 가지는 수학적 함수로, 특히 인공지능, 통계학, 생물학, 그리고 수학 교육 등 다양한 분야 중요한 역할을. 이 함수는 입력값이 매우 작을 때 출력값이 0에 가까워지고, 입력값이 매우 클 때는 출력값이 1에 가까워지는 특성을 가지며, 중간 영역에서는 부드러운...
U-Net 개요 UNet은 이미지 분(Image Segmentation) 작업에서 널리 사용되는 **합성곱 신경망**(Convolutional Neural Network, CNN) 구조로, 2015년 독일 프라이부르크 대학교의 Olaf Ronneberger, Philipp, Thomas Brox에 의해 발표된 모델이다. 이 모델은 주로 **의료 영상 ...
드롭아웃## 개요 드롭아웃**(out)은 인신경망의 과적합overfitting)을 방지하기 위해안된 정규(regularization) 기 중 하나로,2014 제프리 힌턴eoffrey Hinton과 그의 동료들이 발표한 논문에서 처음 소개되었습니다. 드롭아웃은 신경망 학습 과정 중 각 뉴런을 일정 확률로 임의로 '활성화'함으로써 모델의 일반화 성능을 향상시...
# 브로드캐스팅 ## 개요 브로캐스팅(Broadcast)은 **데이터 과학**과 **수치 계산**에서 다차원 배열(행렬) 간의 연산을 수행할 때, 서로 크기가 다른 배열을 자동으로 확장하여 연산을 가능하게 하는 기법입니다. 이 개념은 주로 **NumPy**, **TensorFlow**, **PyTorch** 등의 수치 연산 라이브러리에서 핵심적인 역할을...
# 배치 정규화 개요 **배치 정규화**(Batch Normalization, 이하 배치정규화)는 딥러닝 모델의 학습 속도를 향상시키고, 학습 과정을 안정화하기 위해 제안된 기술이다. 2015년 세르게이 이고르(Sergey Ioffe)와 크리스티안 슈미트(CChristian Szegedy)가 발표한 논문 *"Batch Normalization: Acc...
# MLP ## 개요 **MLP**(Multi-Layer Perptron, 다층 퍼셉트론)은 인공신경망(Artificial Neural Network, ANN)의 가장 기본적이고 널리 사용되는 형태 중 하나입니다 단일 퍼셉트론은 선형적으로 분리 가능한 문제만 해결할 수 있지만, MLP는 여러 개의 은닉층(Hidden Layers)을 포함함으로써 **비선...
기울기 폭주 ## 개요 **기울기 폭주**(Gradient Explosion)는 딥닝 모델 학습정에서 발생할 수 있는 주요 문제 중 하나로, 역전파(backpropagation) 단계에서 기울기(Gradient)의 크기가 지나치게 커져 모델의 가중치 업데이트가 불안정해지는 현상을 말합니다. 이 현상은 특히은 신경망(deep neural networks)...
Okay, I to write a professional Korean Wikipedia-style document about "매개변수 (parameters) under the of machine learning. Let me start understanding the requirements. The wants a markdown document with ...
# ResNet ## 개요 ResNet(Residual Network)는 2015년 Kaiming He 등이 발표한 딥러닝 아키텍처로, 깊은 신경망에서 발생하는 **Vanishing Gradient 문제**를 해결하기 위해 **잔차 학습(residual learning)** 프레임워크를 제안한 모델입니다. 이 모델은 ImageNet 대회(ILSVRC 20...
# 드롭아웃 ## 개요 드롭아웃(Dropout)은 신경망 학습 과정에서 과적합(Overfitting)을 방지하기 위해 제안된 정규화(Regularization) 기법이다. 이 방법은 2012년 Hinton과 동료들이 발표한 논문에서 처음 소개되었으며, 신경망의 일부 뉴런을 무작위로 제거하면서 학습을 진행하는 방식으로 네트워크의 일반화 성능을 향상시킨다. ...
# 선형 연산 ## 개요 선형 연산(Linear Operation)은 데이터 과학과 분석 분야에서 핵심적인 수학적 도구로, 선형 대수학(Linear Algebra)의 기본 원리를 기반으로 합니다. 이 연산은 행렬, 벡터, 스칼라 등을 활용해 데이터의 구조를 변환하거나 패턴을 추출하는 데 사용되며, 머신러닝, 통계 분석, 최적화 문제 등 다양한 분야에 적용...
# 완전 연결 층 ## 개요 완전 연결 층(Fully Connected Layer)은 인공지능(AI) 분야에서 신경망(Neural Network)의 핵심 구성 요소 중 하나로, 입력 데이터와 출력 데이터 간의 복잡한 관계를 모델링하는 데 사용됩니다. 이 층은 전층 연결 구조를 가지며, 모든 노드가 이전 계층의 모든 노드와 연결되어 있습니다. 일반적으로 신...
# 백프로파게이션 (Backpropagation) ## 개요 백프로파게이션(Backpropagation)은 인공 신경망(Artificial Neural Network, ANN)을 학습시키는 데 사용되는 주요 알고리즘 중 하나입니다. 이 기법은 **오차 역전파**라고도 불리며, 네트워크의 출력과 실제 타겟 값 사이의 오차를 최소화하기 위해 가중치와 편향을 ...
# 컨볼루셔널 네트워크 ## 개요 컨볼루셔널 네트워크(Convolutional Neural Network, CNN)는 딥러닝의 주요 기술 중 하나로, 이미지 처리, 음성 인식, 자연어 처리 등 다양한 분야에서 활용됩니다. 이 네트워크는 **畳み込み(Convolutions)** 연산을 통해 입력 데이터의 특징을 자동으로 추출하고, **풀링(Pooli...
# LeNet ## 개요/소개 LeNet은 인공지능 분야에서 가장 초기의 **컨볼루셔널 네트워크(Convolutional Neural Network, CNN)** 중 하나로, 1990년대에 Yann LeCun과 그의 연구팀이 개발한 모델이다. 주로 **손으로 쓴 숫자 인식(OCR)**을 위한 목적으로 설계되었으며, 이는 머신러닝 기술의 발전에 중요한 ...
# LSTM ## 개요 LSTM(Long Short-Term Memory)는 시계열 데이터 처리에 특화된 인공지능 기술로, **기존 순환 신경망(RNN)**의 한계를 극복하기 위해 1997년 Hochreiter & Schmidhuber에 의해 제안되었습니다. RNN은 단기 기억을 유지하지만 장기 의존성을 처리하는 데 어려움이 있었고, 이로 인해 **기울기...
# 시그모이드 함수 ## 개요 시그모이드 함수(Sigmoid Function)는 **0에서 1 사이의 값을 출력**하는 비선형 활성화 함수로, 인공지능(AI) 및 머신러닝(ML) 분야에서 널리 사용됩니다. 이 함수는 로지스틱 회귀(Logistic Regression), 신경망(Neural Network) 등에서 **확률을 예측**하거나 **이진 분류(Bi...