# Simultaneous Localization and Mapping ## 개요 **Simult Localization and Mapping**(AM, 동시 위치 추 및 맵핑) 로보틱스야에서 자율 내비게이션을 실현하기 핵심 기술 중 하나이다. 로봇이 사전에 알지 못하는 환경을 탐색할 때, 자신이 어디에 있는지를 추정(**자기 위치 추정, Localiz...
검색 결과
"CNN"에 대한 검색 결과 (총 90개)
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...
# zero-shot 전이 학습 ## 개요 **zero 전이 학습**(Zero-Shot Transfer Learning) 인공지능 특히 기계학습과 자연어 처리 분야에서 중요한 개념 중 하나로, 모델이 **훈련 과정에서 한 번도 본 적 없는 클래스**(unseen classes)에 대해 예측을 수행할 수 있도록 하는 기법입니다. 이는 전이 학습(Trans...
# 파인튜닝 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 머신러닝 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 개선하는 기법입니다. 주로 딥러닝 기반의 대규모 모델, 특히 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등에서 널리 사용되며, 전이 학습(Transfer Learning)의 한 형태로 간...
AI ## 개요 **AI**(Artificial Intelligence, 인공지능)는 인간의 지능을 모방하거나 확장하기 위해 설계된 컴퓨터 시스템이나 소프웨어 기술을 의미합니다. 인간이 사고, 학습, 문제 해결, 인식, 언어 이해 등의 인지적 능력을 수행하는 방식을 기계가 흉내 내도록 하는 것이 AI의 핵심 목표입니다. 현대의 AI는 단순한 자동화를 넘...
# MobileNet **MobileNet**은 구글(Google)이 개발한 경량화된 컨볼루션 신경망(Convolutional Network, CNN)키텍처로, 모바일 기기 및 임베디드 시스템과 같은 제한된 컴퓨팅 자원 환경에서 실시간 이미지 인식 및 객체 탐지를 가능하게 하기 위해 설계되었다. MobileNet은 정확도와 속도 사이의 균형을 잘 유지하면...
다중 헤드 주의 ## 개요 **중 헤드 자기 주의**(-Head Self-Attention)는 자연 처리(NLP) 분야에서리 사용되는 **트랜스포머**(Transformer) 아키텍처의 핵심 구성 요소입니다. 이커니즘은 입력 시퀀스 내의 각 단어(또는 토큰)가 다른 단어들과 어떻게 관계되어 있는지를 병렬적으로 분석함으로써, 문맥적 의미를 효과적으로 포착...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...
# 자기 주의 자기 주의(자기어텐션, Self-Attention)는 딥러닝, 특히 인공지능 자연어 처리(NLP) 분야에서 핵심적인 역할을 하는 신망 구성 요소. 이 메커니즘은 입력 시퀀스 내의 각 요소가 다른 요소들과 어떻게 관계되는지를 모델이 학습할 수 있도록 하며, 전통적인 순환 신경망(RNN)이나 합성곱 신경망(CNN)보다 더 유연하고 강력한 표현 ...
# ROUGE ## 개요 ROUGE(RCALL-Oriented Understudy for Gisting Evaluation)는 자연어 처리(Natural Language Processing, NLP) 분야에서 주로 **자동 요약**(Automatic Summarization) 또는 **기계 번역**(Machine Translation) 시스템의 출력 결...
U-Net 개요 UNet은 이미지 분(Image Segmentation) 작업에서 널리 사용되는 **합성곱 신경망**(Convolutional Neural Network, CNN) 구조로, 2015년 독일 프라이부르크 대학교의 Olaf Ronneberger, Philipp, Thomas Brox에 의해 발표된 모델이다. 이 모델은 주로 **의료 영상 ...
# 문서 분류 ## 개요 **문서 분류**(Document Classification)는 자연처리(NLP, Natural Language Processing)의 핵심술 중 하나로, 주어진 텍스트 문서를 미리 정의된 카테고리나 클래스에 자동으로 배정하는 작업을 의미한다. 이 기술은 방대한 양의 텍스트 데이터를 체계적으로 정리하고, 정보 추출 및 지식 관리...
# 딥러닝 아키텍 딥러닝 아키텍처는 인지능(Artificial Intelligence, AI의 핵심 기 중 하나로, 인공경망(Artificial Network)을 기반으로 복잡한 데이터 패턴을 학습하고 인식하는 구조를 의미합니다. 특히, 수많은 은닉층(hidden layers)을 포함하는 심층 신경망(deep neural network)을 통해 고차원 데...
# AI 기반 영 진단 ## 개요 AI 기반 영상 진단은 인공지능(Artificial Intelligence, AI) 기술을 활용하여 의료 영상(Medical Imaging)을 분석하고 질병을 자동으로지, 분류, 진단하는 기술이다. 주로 X선, CT(컴퓨터 단층 촬영), MRI(자기공명영상), 초음파, 맘모그램 등 다양한 의료 영상 자료를 대상으로 한다...
# 음성 인식 ## 개요 **음성 인식**(Speech Recognition)은 인간의 구두 언어를 기계가 이해하고 텍스트 또는 명령어로 변환하는 기술을 의미한다. 이 기술은공지능(AI), 자연어 처리(NLP), 신호 처리 등 다양한 분야의 융합적 성과로 발전해왔으며, 스마트폰, 스마트 스피커, 고객 서비스 챗봇, 실시간 자막 생성 등 일상생활 곳곳에서...
# 트랜스포머 ## 개요 **트랜스포머**(Transformer)는 자연어처리LP) 분야 혁신적인 영향을 미친 딥러닝 아키텍처로, 2017년글과 빌런드 연구소의 연구자들이 발표한 논문 *"Attention is All You Need"*에서 처음 소개되었습니다. 기존의 순차적 처리 방식을 기반으로 한 순환신경망(RNN)이나 합성곱신경망(CNN)과 달리,...
드롭아웃## 개요 드롭아웃**(out)은 인신경망의 과적합overfitting)을 방지하기 위해안된 정규(regularization) 기 중 하나로,2014 제프리 힌턴eoffrey Hinton과 그의 동료들이 발표한 논문에서 처음 소개되었습니다. 드롭아웃은 신경망 학습 과정 중 각 뉴런을 일정 확률로 임의로 '활성화'함으로써 모델의 일반화 성능을 향상시...
# BERT ##요 BERT(Bidirectional Encoder Represent from Transformers)는글(Google)이 018년에 발표한 자연어 처리(N) 분야의 획기적인 언어 모델이다.ERT는 이전의 단방향 언어 모들과 달리 **방향 맥락**(bidirectional context)을 학습함으로써 단어의 의미를 보다 정확하게 이해할...
GPT ##요 GPT(Generative Pre-trained)는 오픈AI(OpenAI에서 개발한 **대규모 언어 모델**(Large Language Model, LLM) 시리즈로, 자연어를 생성하고 이해하는 데 특화된 딥러닝 기반의 인공지능 모델입니다. GPT는 **변환기**(Transformer) 아키텍처를 기반으로 하며, 방대한 양의 텍스트 데이터...
인스턴스규화 **스턴스 정규**(Instance Normalization, 줄여서 IN)는 딥러닝, 특히 **합성곱 신경망**(CNN) 기반의 이미지 생성 및 스타일 변환 모델에서 널리 사용되는 정규화 기법 중 하나입니다. 배치 정규화(Batch Normalization)에서 발전된 개념으로, 배치 단위가 아닌 **개별 샘플**(인스턴스) 단위로 정규화를...