# 트랜스포머 ## 개요 **트랜스포머**(Transformer는 2017년 구과 유니버시티 오브 토론토 연구진이 발표한 논문 *"Attention is All You Need"*에서안된 딥러닝 기반의 **시퀀스-투-시퀀스**(sequence-to-sequence) 신경망 아키텍처입니다. 이 모델은 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리...
검색 결과
"병렬 처리"에 대한 검색 결과 (총 86개)
GloVe ##요 **GVe**(Global Vectors Word Representation)는 스탠퍼드 대학교 연구팀이 214년에 제안한 단어 임베딩(word embedding) 기법으로, 단어 간의 의미적 관계를 실수 벡터 형태로 표현하는 자연어처리(N) 모델이다. GloVe는 단의 분포 가(distributional hypothesis) 기반하여...
# AlexNet ## 개요 **AlexNet**은 인공지능, 특히 **컴퓨터비전**(Computer Vision) 분야에서 혁명적인 영향을 미친 심층 신경망Deep Neural Network)** 모이다. 212년에 알스 크리제브스키Alex Krizhev)**, 이오리츠케버**(Ilya Sutskever)**, 그리고 제프리 힌튼**(Geoffrey ...
# 멀티스레 ## 개요 멀티스레(Multithreading은 하나의 프로스 내에서 여러의 스레드)를 동시에 실행하여로그램의 성과 반응성을상시키는 병렬팅 기법입니다 각 스레드 독립적인 실행 흐을 가지며, 프로세스의모리 공간과원을 공유으로써 효율적인 공유와 통신 가능합니다. 멀스레딩은 현 소프트웨어 개발에서 매우 중요한 개념으로, 특히 다중 코어 프로세서 ...
# 과학기술 계산 과학기술 계산(Scientific)은 과학 및 공학 분야의 복잡한 문제를 수치적 방법과 컴퓨터 시뮬레이션을 통해 해결하는 학제 간 기술 영역입니다. 이 분야는 수학, 물리학, 컴퓨터 과학, 공학 등 다양한 분야의 지식을 융합하여 실험적 또는 이론적 접근만으로는 해결하기 어려운 문제를 분석하고 예측하는 데 핵심적인 역할을 합니다. 현대 과...
# LightGBM GBM은 마이크로소프트에서 개발한성능의 경량 그래디언트 부스팅 프레임워크로, 대규모 데이터셋을 빠르고 효율적으로 처리할 수 있도록 설계된 지도 학습 알고리즘. 특히 분류, 회귀, 순위 예 등의 머신러 태스크에서 뛰어난 성능을 보이며, XGBoost, CatBoost와 함께 대표적인 그래디언트 부스팅 트리(Gradient Boosting...
# 렌더링 ## 개요 렌더링(Rendering)은 컴퓨터그래픽스에서 3차원(D) 모델 2차원(D) 장면 시각적으로 표현 가능한 이미지 또는 영상으로 변환하는 과정을 의미합니다. 이는 디지털 콘텐츠 제작, 영화 특수효과(VFX),임 개발, 건축 시각화, 산업 디자인 등 다양한 분야에서 핵심적인 기술로 활용됩니다. 렌더링은 단순한 그림 생성을 넘어 조명, ...
# 엣지 컴퓨팅 ## 개요 **엣지 컴퓨팅**(Edge Computing)은 데이터 처리를 네트워크의 중심부(예: 클라우드 데이터센터)가 아닌, 데이터 생성 원천에 가까운 위치에서 수행하는 분산 컴퓨팅 패러다임이다. 이는 사용자 디바이스, 센서, IoT 기기 등 데이터가 발생하는 "엣지"(Edge)에서 실시간 또는 근실시간으로 정보를 처리함으로써 지연(...
# Tesla (GPU 제품 라) NVIDIA Tesla는 고성능팅(HPC), 인공지능I), 데이터 과학, 그리고 과학 시뮬레이션 분야에 특화된 GPU 라인입니다. 이 라인은 일반 소비자용 그래픽 카드와는 달리, 컴퓨팅 성능과 안정성, 에너지 효율성에 중점을 두고 설계되었으며, 주로 데이터센터, 슈퍼컴퓨터, 클라우드 인프라에서 사용됩니다. Tesla 브랜...
블록 암호 ## 개요 **블록 암호화**(Block Cipher)는 정보 보 분야에서 널리 사용되는 대칭 키 암호화 기법의 일종으로, 입력된 데이터를 일정한 크기의 "블록" 단위 나누어 각 블록을 독립적으로 암호화하는 방식이다. 블록 암호화는 암호화폐 및 블록체인 기술에서 데이터의 기밀성, 무결성, 인증을 보장하는 핵심 요소로 작용하며, 특히 디지털 자...
# 데이터 특성 데이터는 현대 정보 사회의 핵심 자원으로, 다양한 분야 의사결정, 예, 자동화 등을 가능하게 합니다. ** 특성**(Data)은 데이터의 본질 속성과 성격을 설명하는 요소들로 데이터를 수집, 저장, 분석, 활용하는 과정에서 매우 중요한 기준이 됩니다. 데이터 과학에서는 데이터의 특성을 이해함으로써 적절한 처리 방법과 분석 기법을 선택할 수...
# BERT ## 개요 **BERT**(Bidirectional Encoder Represent from Transformers)는어 처리(NLP)야에서 혁신적인과를 이룬러닝 기반 언어 모델로, 구글(Google) 연구팀이 2018년에 발표한 머신러닝 모델이다. BERT는 이전의 단방향 언어 모델들과 달리 **양방향 컨텍스트**(Bidirectional...
# Bidirectional Encoder Represent from Transformers ## 개요 **Bid Encoder Representations from Transformers**(BERT는 자연어 처리(NLP) 분야 혁신적인 성를 이룬 언어델로, 018년글(Google) 연구에 의해 개발. BERT는 이전의 단방향 언어 모델들(예: GPT...
# Neural Machine Translation ## 개요 **Neural Machine Translation**(하 NMT)은 딥러 기반의 자연어 처리 기술, 기계 번역의 정확도와 자연스러움을 크게 향상시킨 혁신적인 방법입니다. 기존의 통계 기반 기계 번역(Statistical Machine Translation, SMT)과 규칙 기반 번역 시스템...
# 장기 기억 신경망## 개요 **장기 신경망**(Long Short-T Memory, LSTM)은 순환 신망(Recurrent Neural Network,NN)의 한형으로, 시계열 데이터나 순차적 데이터를 효과적으로 처리하기 위해 설계 인공신경망 구조입니다. 전통적인 RNN은 장기 의존성(long-term dependencies) 문제, 즉 오래된 정보...
# 스케일드 닷 프덕트 어텐션 스케드 닷 프로덕트 어션(Scaled Dot-Product Attention) 자연어처리(NLP) 분야에서 가장 핵심적인 어텐션 메커니즘 중 하나로, 특히 트스포머(Transformer) 아키텍처에서 중심적인 역할을 합니다. 이 메커니즘은 입력 시퀀스 내 각 단어 간의 관련성을 효율적으로 계산하여, 모델이 문장의 의미를 보다...
# 하이퍼파라미터적화 ## 개요 하이퍼파라미터 최적화(Hyperparameter Optimization)는 머신러닝 모델의 성능을 극대화하기 위해 모델 학습 전에 설정해야 하는 **하이퍼파라미터**(Hyperparameter)의 최적 값을 탐색하는 과정입니다. 하이퍼파라미터는 모델의 구조나 학습 방식을 결정하는 중요한 설정값으로, 예를 들어 학습률(Le...
# 그래디언트 부스 회귀 ## 개요 **그래디언트 부스팅 회**(Gradient Boosting Regression)는 머신러닝에서 회귀(regression) 문제를 해결하기 위해 사용되는 강력한 앙상블 학습 기법입니다. 이은 여러 개의 약한 학습기(weak learners), 주로 결정 트리(decision tree)를 순차적으로 결합하여 강한 예측 ...
# Basic Linear Algebra Subprograms **Basic Linear Algebra Subprograms**(BL)는 선형대수 계을 위한 기본적인 연산들을 표화한 인터페이스 사양이다. BLAS는 벡터와렬의 덧셈 스칼라 곱, 내적, 행렬-벡터 곱, 행렬-행렬 곱 등과 같은 수치 선형대수의 핵심 연산들을 정의하며, 과학 계산, 머신러닝, ...
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...