# RNN (Recurrent Neural Network) ## 개요 **RNN**(Recurrent Neural Network, 순환 신경망)은 시계열 데이터나 순적 데이터(sequence data)를 처리하기 위해 설계된 딥러 기반 신경망 모델입니다. 일반적인 피포워드 신경망(Feed Neural Network)이 입력 데이터를 독립적인 단위로 간주...
검색 결과
"Tanh"에 대한 검색 결과 (총 24개)
# Dense ## 개요 **Dense**는 인공지, 특히 **신경망**(Neural Network)의 구성 요소 중 하나로, **완전 연결층**(Fully Connected Layer이라고도 불립. 이 층은 신망의 기본적인조 단위로서 입력 노드와 출력드 사이의 모든 가능한을 포함하고 있습니다 딥러닝 모델에서 주로 분류, 회귀 등의 최종 출력을 생성하거...
# AlexNet ## 개요 **AlexNet**은 인공지능, 특히 **컴퓨터비전**(Computer Vision) 분야에서 혁명적인 영향을 미친 심층 신경망Deep Neural Network)** 모이다. 212년에 알스 크리제브스키Alex Krizhev)**, 이오리츠케버**(Ilya Sutskever)**, 그리고 제프리 힌튼**(Geoffrey ...
# 과일당 ## 개 **과일당**(糖糖, Fructose)은계에서 가장 흔 발견되는 **단당류**(monosaccharide) 중 하나로, 주로 과일 꿀, 일부 채소 및 고과당 옥수수 시럽(HFCS) 등에 포함되어 있다. 화학식은 C₆H₁₂O₆이며, 포도당(Glucose)과 같은 분자식을 갖지만 구조가 다르기 때문에 생리적 작용과 대사 경로가 구분된다....
# 장기 기억 신경망## 개요 **장기 신경망**(Long Short-T Memory, LSTM)은 순환 신망(Recurrent Neural Network,NN)의 한형으로, 시계열 데이터나 순차적 데이터를 효과적으로 처리하기 위해 설계 인공신경망 구조입니다. 전통적인 RNN은 장기 의존성(long-term dependencies) 문제, 즉 오래된 정보...
# 다항식 커널 ## 개요 다항식널(Polynomial Kernel)은 **신러닝**, 특히 **서포트 벡터 머신**(Support Vector Machine, SVM)과 같은 커널 기반 알고리즘에서 널리 사용되는 비선형 커널 함수 하나입니다. 이 커은 입력 데이터 간의 유사도를 고차원 공간에서 효과적으로 계산함으로써, 선형적으로 분리되지 않는 복잡한 ...
# 서포트 벡터 머신 ## 개요 **서트 벡터 머신**(Support Vector Machine, SVM)은 기계학습(Machine Learning) 분야에서 널리 사용되는 지도 학습(supervised learning) 알고리즘으로, 주로 분류(classification) 문제에 활용되지만 회귀(regression) 및 이상치 탐지(outlier de...
# 시그모이드 함수 ## 개요 시모이드 함수(Sigmoid Function)는 S자 형태의 곡선을 가지는 수학적 함수로, 특히 인공지능, 통계학, 생물학, 그리고 수학 교육 등 다양한 분야 중요한 역할을. 이 함수는 입력값이 매우 작을 때 출력값이 0에 가까워지고, 입력값이 매우 클 때는 출력값이 1에 가까워지는 특성을 가지며, 중간 영역에서는 부드러운...
# SVM (서포트 벡터 머신) 서포트 벡터 머신(Support Vector Machine, SVM은 머신러닝 분에서 널리 사용되는 지도 학습 기반의 **분류 알고리즘**으로, 주로 이진 분류 문제에 사용되지만 다중 클래스 분류에도 확장 가능하다. SVM은 데이터 포인트를 고차원 공간으로 매핑하여 최적의 경계선(hyperplane)을 찾아 서로 다른 클래...
# 출력 게이트 개요 **출력 게이트**(Output)는 장단기 기억 장치(Long Short-Term Memory, LSTM)와 같은 순환 신경망(Recurrent Neural Network, R)의 핵심 구성 요소 중 하나로, 네트워크의 출력값을 조절하는 역할을 한다. 출력 게이트는 내 메모리 상태(Cell State)에서 얼마나 많은 정보를 최종...
# 배치 정규화 개요 **배치 정규화**(Batch Normalization, 이하 배치정규화)는 딥러닝 모델의 학습 속도를 향상시키고, 학습 과정을 안정화하기 위해 제안된 기술이다. 2015년 세르게이 이고르(Sergey Ioffe)와 크리스티안 슈미트(CChristian Szegedy)가 발표한 논문 *"Batch Normalization: Acc...
# MLP ## 개요 **MLP**(Multi-Layer Perptron, 다층 퍼셉트론)은 인공신경망(Artificial Neural Network, ANN)의 가장 기본적이고 널리 사용되는 형태 중 하나입니다 단일 퍼셉트론은 선형적으로 분리 가능한 문제만 해결할 수 있지만, MLP는 여러 개의 은닉층(Hidden Layers)을 포함함으로써 **비선...
기울기 폭주 ## 개요 **기울기 폭주**(Gradient Explosion)는 딥닝 모델 학습정에서 발생할 수 있는 주요 문제 중 하나로, 역전파(backpropagation) 단계에서 기울기(Gradient)의 크기가 지나치게 커져 모델의 가중치 업데이트가 불안정해지는 현상을 말합니다. 이 현상은 특히은 신경망(deep neural networks)...
# 콘텐츠 생성 ## 개요 **콘텐츠 생성**(Content Generation)은 인공지능이 텍스트, 이미지, 음악, 비디오 등 다양한 형태의 콘텐츠를 자동으로 생성하는 기술을 의미합니다. 이는 머신러닝, 특히 **딥러닝** 기반의 모델을 활용하여 이루어지며, 자연어 처리(NLP), 컴퓨터 비전(CV), 생성 모델 등 여러 분야의 융합적 기술이 적용됩니...
```markdown # GAN (Generative Adversarial Network) ## 개요 GAN(Generative Adversarial Network)은 2014년 Ian Goodfellow 등에 의해 제안된 딥러닝 모델로, 생성자(Generator)와 판별자(Discriminator)의 경쟁적 학습을 통해 데이터를 생성합니다. 주로 이미지...
# 완전 연결 층 ## 개요 완전 연결 층(Fully Connected Layer)은 인공지능(AI) 분야에서 신경망(Neural Network)의 핵심 구성 요소 중 하나로, 입력 데이터와 출력 데이터 간의 복잡한 관계를 모델링하는 데 사용됩니다. 이 층은 전층 연결 구조를 가지며, 모든 노드가 이전 계층의 모든 노드와 연결되어 있습니다. 일반적으로 신...
# LeNet ## 개요/소개 LeNet은 인공지능 분야에서 가장 초기의 **컨볼루셔널 네트워크(Convolutional Neural Network, CNN)** 중 하나로, 1990년대에 Yann LeCun과 그의 연구팀이 개발한 모델이다. 주로 **손으로 쓴 숫자 인식(OCR)**을 위한 목적으로 설계되었으며, 이는 머신러닝 기술의 발전에 중요한 ...
# LSTM ## 개요 LSTM(Long Short-Term Memory)는 시계열 데이터 처리에 특화된 인공지능 기술로, **기존 순환 신경망(RNN)**의 한계를 극복하기 위해 1997년 Hochreiter & Schmidhuber에 의해 제안되었습니다. RNN은 단기 기억을 유지하지만 장기 의존성을 처리하는 데 어려움이 있었고, 이로 인해 **기울기...
# 활성화 함수 ## 개요/소개 활성화 함수는 인공신경망(ANN)에서 입력 신호를 처리하여 출력을 생성하는 데 사용되는 핵심 요소입니다. 이 함수는 신경망이 비선형 관계를 학습할 수 있도록 하며, 단순한 선형 모델로는 해결 불가능한 복잡한 문제(예: 이미지 인식, 자연어 처리)를 해결하는 데 기여합니다. 활성화 함수의 선택은 네트워크 성능, 수렴 속도...
# 시그모이드 함수 ## 개요 시그모이드 함수(Sigmoid Function)는 **0에서 1 사이의 값을 출력**하는 비선형 활성화 함수로, 인공지능(AI) 및 머신러닝(ML) 분야에서 널리 사용됩니다. 이 함수는 로지스틱 회귀(Logistic Regression), 신경망(Neural Network) 등에서 **확률을 예측**하거나 **이진 분류(Bi...