# GT/s GT/s(Giga Transfers per second는 컴퓨터 하드웨어, 특히 전송 속도를 측정하는 데 사용되는 성능 지표 중로, 초당 수십억 회(기가 단위)의 데이터 전송 횟수를 의미합니다. 이위는 주로렬 통신 인터페이스, 예를 PCI Express(PCI), DDR 메모리, 또는 고속 버스 아키텍처의 성능을 설명할 때 자주 사용됩니다. ...
검색 결과
"DEC"에 대한 검색 결과 (총 180개)
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
# Snappy ## 개 **Snappy는 구글(Google)에서 개한 오픈 소스 **고속 데이터 압축 및 압축 해제 라이브러리**로, 특히 **압축 속도**를 중시하는 환경에서 널리 사용된다 Snappy는 최대한 빠른 속도로 데이터를 압축하고 해제하는 데 최적화 있으며, 압축률보다는 처리 성능을 우선시하는 설계 철학을 가지고 있다. 이로 인해 대규모 ...
# GPT ## 개요 GPT(G Pre-trained Transformer) 오픈AI(OpenAI)에서 개발한 **대규모 언어 모델**(Large Language Model, LLM) 시리즈로, 자연어 처리(NLP) 분야에서 혁신적인과를 이룬 대표적인 생성형 인공지능 모델이다. GPT는 **변환기**(Transformer) 아키텍처를 기반으로 하며, 방...
# Time Series Cross-Validation**Time Series Cross-Validation**(시계 교차 검증은 시계열 데이터 특화된 모 평가 기법, 일반적인 교차 검증(Cross-Validation) 방식이 가정하는의 독립성 동일 분포(i.d.) 조건이 시계열 데이터에서는 성립하지 않기 때문에발된 방법이다. 시계열 데이터는 시간 순에 따...
# 학습률 스케줄링 ## 개요 **학습률 스케줄링**(Learning Scheduling)은신러닝, 특히러닝 모델의 훈련 과정에서 학습률(Learning Rate)을 훈련 중 동적으로 조정하는 기법입니다. 학습률은 경사하강법(Gradient Descent)을 통해 모델의 가중치를 업데이트할 때 적용되는 스케일링 인자로, 너무 크면 최적해를 지나치고, 너...
이더넷 II 프레 이더넷 II 프레(Ethernet II Frame)은 네트워크 가장 널리 사용되는 데이터크 계층 프로토콜 중 하나로, 이넷 네트워크를 통해 데이터를 전송 때 사용되는 표적인 프레임 형식. 이 프레은 IEEE 80.3 표준 이전에 개발된 디지털 장비 회사igital Equipment Corporation, DEC 인텔(Intel), 제미니...
# 논리적 일관 ## 개요 **논리적 일성**(Logical Cons)은 자연어 생성(Natural Language Generation, NLG 시스템이 생성하는 텍스트가부적으로 모순이 일관된 논리 구조를 유지하는 정도를 의미합니다. 즉, 생성된 문장이나 문단들이 서로 충돌하지 않고, 주어진 맥락 속에서 타당한 추론과 연결을 보여야 한다는 원칙입니다. ...
# BART ## 개요 **BART**(Bidirectional and-Regressive Transformer)는 자연어(NLP) 분야에서 텍스트 생성 및 이해 작업에 널리 사용되는 **시퀀스-투-시퀀스**(sequence-to-sequence) 기반의 트랜스포머 아키텍처입니다. 2019년 페이북 AI(Facebook AI, 현재 Meta AI) 연구...
# 미세 조정 개요 **미세 조정**(Fine-tuning)은 머신러닝, 특히 딥러닝 분야에서 사전 훈련된(pre-trained) 모델 새로운 과제(task)에 맞게 추가로 훈련하여 성능을 개선하는법입니다. 이은 대규모 데이터셋으로 학습된 모델의 일반적인 특징 추출 능력을 활용하면서도, 특정 도메인이나 목적에 최적화된 성능을 얻을 수 있도록 해줍니다....
# 트랜스포머 ## 개요 **트랜스포머**(Transformer는 2017년 구과 유니버시티 오브 토론토 연구진이 발표한 논문 *"Attention is All You Need"*에서안된 딥러닝 기반의 **시퀀스-투-시퀀스**(sequence-to-sequence) 신경망 아키텍처입니다. 이 모델은 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리...
# T5: Text-to-Text Transfer Transformer ## 개요 **T5**(Text-to-Text Transformer)는 구글(Google) 연구팀이 2019년에 발표한 자연어(NLP) 모델로, 다양한어 이해 및 생성을 **문자 그 하나의 통일된 프레임크**로 처리할 수 있도록계된 대규모 트랜스포머 기반 모델. T5는모든 자연어처리...
# 데이터 암호화 개요 **데이터 암호**(Data Encryption)는 민감한 정보를 무단 접근으로부터 보하기 위해 데이터를 읽을 수 없는 형태로 변환하는 기술입니다 이 과정을 통해 인가되지 않은 사용자가 데이터를 탈취하더라도 그 내용을 이해할 수 없도록 하며, 정보의 기밀성, 무결성, 가용성을 보장하는 정보 보안의 핵심 요소 중 하나로 간주됩니다...
# M.2 히트싱크 ## 개요 M. 히트싱크는 M2 폼 팩터를 사용하는 SSD(리드 스테이 드라이브)나 무선트워크 카드와 같은 소형 컴퓨터 하드웨어 장치의 열을 효과적으로 방출하기 위해 설계된 열 관리 장치입니다. 최근 고성능 M.2 NVMe SSD의 등장으로 데이터 전송 속도가 급격히 증가하면서, 이로 인한 발열 문제도 심화되고 있습니다. 이러한 상황...
# LDA (Lat Dirichlet Allocation) ## 개요 **LDA**(Latent Dirichlet Allocation, 잠재 디리클레 할당) 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는주제 모델**(Topic Modeling) 기 중 하나입니다. 주로 문서 집합(corpus) 내에서 잠...
# ACF ## 개요 ACF(Autorrelation Function, 자기관함수)는 시계열 분석에서 중요한 개념 중 하나로, **한 시계열 데이터 내에서 서로 다른 시점의 관측값 사이의 상관관계 측정하는 함수**입니다 시계열 데이터는 시간에 따라 순차적으로 수집된 데이터이므로, 현재과 과거의 사이에 일정한 관계가 존재할 수 있으며, 이러한 관계를 수치...
# LCA ## 개요 **LCA**(Life Cycle Assessment, 생명주기 평가)는 제품, 서비스, 프로세스의 환경적 영향을 전체 생명주기 동안 평가하는 체계적인 방법론입니다. 이 평가은 자원 채취부터 원자재 생산, 제조, 유통, 사용, 폐기 또는 재활용에 이르기까지 모든 단계에서 발생하는 에너지 소비, 자원 사용, 오염물질 배출 등을 정량적...
# Realtek Realtek Semiconductor Corp.는 전 세계적으로 널리 알려진 반도체 제조사로, 주로 통신 네트워크, 오디오, 비디오 및 네트워크 인터페이스 제어 기술 분야에서 다양한 집적회로(IC)를 설계하고 제조합니다. 본사는 대만 신주 과학단지에 위치해 있으며, 1987년 설립 이후 PC 및 소비자 전자기기 시장에서 핵심적인 역할을...
# num_leaves `num_leaves`는 그래디언트 부스팅 머신 러닝 알고리즘 중 하나인 **LightGBM**(Light Gradient Boosting Machine)에서 중요한 하이퍼파라터로, 각각의 결정 트리(decision tree) 가질 수 있는 **최대 잎 노드 수**(maximum number of leaf nodes)를 지정합니다....
# LightGBM GBM은 마이크로소프트에서 개발한성능의 경량 그래디언트 부스팅 프레임워크로, 대규모 데이터셋을 빠르고 효율적으로 처리할 수 있도록 설계된 지도 학습 알고리즘. 특히 분류, 회귀, 순위 예 등의 머신러 태스크에서 뛰어난 성능을 보이며, XGBoost, CatBoost와 함께 대표적인 그래디언트 부스팅 트리(Gradient Boosting...