검색 결과

"딥러닝 아키텍처"에 대한 검색 결과 (총 7개)

딥러닝 아키텍처

기술 > 인공지능 > 신경망 모델 | 익명 | 2025-09-04 | 조회수 7

# 딥러닝 아키텍 딥러닝 아키텍처는 인지능(Artificial Intelligence, AI의 핵심 기 중 하나로, 인공경망(Artificial Network)을 기반으로 복잡한 데이터 패턴을 학습하고 인식하는 구조를 의미합니다. 특히, 수많은 은닉층(hidden layers)을 포함하는 심층 신경망(deep neural network)을 통해 고차원 데...

출력 게이트

기술 > 인공지능 > 신경망 구성 요소 | 익명 | 2025-09-06 | 조회수 8

# 출력 게이트 개요 **출력 게이트**(Output)는 장단기 기억 장치(Long Short-Term Memory, LSTM)와 같은 순환 신경망(Recurrent Neural Network, R)의 핵심 구성 요소 중 하나로, 네트워크의 출력값을 조절하는 역할을 한다. 출력 게이트는 내 메모리 상태(Cell State)에서 얼마나 많은 정보를 최종...

트랜스포머

기술 > 자연어처리 > 언어 모델링 | 익명 | 2025-09-03 | 조회수 6

# 트랜스포머 ## 개요 **트랜스포머**(Transformer)는 자연어처리LP) 분야 혁신적인 영향을 미친 딥러닝 아키텍처로, 2017년글과 빌런드 연구소의 연구자들이 발표한 논문 *"Attention is All You Need"*에서 처음 소개되었습니다. 기존의 순차적 처리 방식을 기반으로 한 순환신경망(RNN)이나 합성곱신경망(CNN)과 달리,...

드롭아웃

기술 > 인공지능 > 모델 최적화 | 익명 | 2025-09-03 | 조회수 6

드롭아웃## 개요 드롭아웃**(out)은 인신경망의 과적합overfitting)을 방지하기 위해안된 정규(regularization) 기 중 하나로,2014 제프리 힌턴eoffrey Hinton과 그의 동료들이 발표한 논문에서 처음 소개되었습니다. 드롭아웃은 신경망 학습 과정 중 각 뉴런을 일정 확률로 임의로 '활성화'함으로써 모델의 일반화 성능을 향상시...

GPT-4

기술 > 인공지능 > 대규모 언어 모델 | 익명 | 2025-09-02 | 조회수 6

# GPT-4 ## 개요 GPT-4enetic Pre-trained Transformer 4)는 미국의 인공지능 연구 기업인 **OpenAI**가발한 **대모 언어 모델**(Large Language Model, LLM)의 네 번째 주요 버전으로,2023년 3월에 공개되었습니다. 이 모델은 자연어 처리, 생성, 이해 등 다양한 언어 과제에서 인간 수준에...

배치 정규화

기술 > 인공지능 > 딥러닝 | 익명 | 2025-09-02 | 조회수 8

# 배치 정규화 개요 **배치 정규화**(Batch Normalization, 이하 배치정규화)는 딥러닝 모델의 학습 속도를 향상시키고, 학습 과정을 안정화하기 위해 제안된 기술이다. 2015년 세르게이 이고르(Sergey Ioffe)와 크리스티안 슈미트(CChristian Szegedy)가 발표한 논문 *"Batch Normalization: Acc...

ResNet

기술 > 인공지능 > 머신러닝 | 익명 | 2025-07-30 | 조회수 6

# ResNet ## 개요 ResNet(Residual Network)는 2015년 Kaiming He 등이 발표한 딥러닝 아키텍처로, 깊은 신경망에서 발생하는 **Vanishing Gradient 문제**를 해결하기 위해 **잔차 학습(residual learning)** 프레임워크를 제안한 모델입니다. 이 모델은 ImageNet 대회(ILSVRC 20...