← 홈

🔥PyTorch

⌘K
🤖
Claude Code AI 도구
🤗
Hugging Face AI 도구
🦜
LangChain AI 도구
🧠
Keras AI 도구
🦙
Ollama AI 도구
🐍
Python 프로그래밍 언어
🟨
JavaScript 프로그래밍 언어
🔷
TypeScript 프로그래밍 언어
⚛️
React 프로그래밍 언어
🐹
Go 프로그래밍 언어
🦀
Rust 프로그래밍 언어
📊
MATLAB 프로그래밍 언어
🗄️
SQL 프로그래밍 언어
⚙️
C/C++ 프로그래밍 언어
Java 프로그래밍 언어
🟣
C# 프로그래밍 언어
🍎
Swift 프로그래밍 언어
🟠
Kotlin 프로그래밍 언어
Next.js 프로그래밍 언어
💚
Vue.js 프로그래밍 언어
🔥
Svelte 프로그래밍 언어
🎨
Tailwind CSS 프로그래밍 언어
💚
Node.js 프로그래밍 언어
🌐
HTML 프로그래밍 언어
🎨
CSS/SCSS 프로그래밍 언어
🐘
PHP 프로그래밍 언어
💎
Ruby 프로그래밍 언어
🔴
Scala 프로그래밍 언어
📊
R 프로그래밍 언어
🎯
Dart 프로그래밍 언어
💧
Elixir 프로그래밍 언어
🌙
Lua 프로그래밍 언어
🐪
Perl 프로그래밍 언어
🅰️
Angular 프로그래밍 언어
🚂
Express.js 프로그래밍 언어
🐱
NestJS 프로그래밍 언어
🛤️
Ruby on Rails 프로그래밍 언어
◼️
GraphQL 프로그래밍 언어
🟪
Haskell 프로그래밍 언어
💚
Nuxt.js 프로그래밍 언어
🔷
SolidJS 프로그래밍 언어
htmx 프로그래밍 언어
💻
VS Code 개발 도구
🧠
PyCharm 개발 도구
📓
Jupyter 개발 도구
🧠
IntelliJ IDEA 개발 도구
💚
Neovim 개발 도구
🔮
Emacs 개발 도구
🔀
Git DevOps & CLI
🐳
Docker DevOps & CLI
☸️
Kubernetes DevOps & CLI
☁️
AWS CLI DevOps & CLI
🔄
GitHub Actions DevOps & CLI
🐧
Linux 명령어 DevOps & CLI
💻
Bash 스크립팅 DevOps & CLI
🌐
Nginx DevOps & CLI
📝
Vim DevOps & CLI
🔨
Makefile DevOps & CLI
🧪
Pytest DevOps & CLI
🪟
Windows DevOps & CLI
📦
패키지 매니저 DevOps & CLI
🍎
macOS DevOps & CLI
🏗️
Terraform DevOps & CLI
🔧
Ansible DevOps & CLI
Helm DevOps & CLI
🔨
Jenkins DevOps & CLI
🔥
Prometheus DevOps & CLI
📊
Grafana DevOps & CLI
💻
Zsh DevOps & CLI
🐟
Fish Shell DevOps & CLI
💙
PowerShell DevOps & CLI
🔄
Argo CD DevOps & CLI
🔀
Traefik DevOps & CLI
☁️
Azure CLI DevOps & CLI
☁️
Google Cloud CLI DevOps & CLI
📟
tmux DevOps & CLI
🔧
jq DevOps & CLI
✂️
sed DevOps & CLI
📊
awk DevOps & CLI
🌊
Apache Airflow DevOps & CLI
🔢
NumPy 데이터베이스 & 데이터
🐼
Pandas 데이터베이스 & 데이터
🔥
PyTorch 데이터베이스 & 데이터
🧠
TensorFlow 데이터베이스 & 데이터
📈
Matplotlib 데이터베이스 & 데이터
🐘
PostgreSQL 데이터베이스 & 데이터
🐬
MySQL 데이터베이스 & 데이터
🍃
MongoDB 데이터베이스 & 데이터
🔴
Redis 데이터베이스 & 데이터
🔍
Elasticsearch 데이터베이스 & 데이터
🤖
Scikit-learn 데이터베이스 & 데이터
👁️
OpenCV 데이터베이스 & 데이터
Apache Spark 데이터베이스 & 데이터
🪶
SQLite 데이터베이스 & 데이터
Supabase 데이터베이스 & 데이터
🔵
Neo4j 데이터베이스 & 데이터
📨
Apache Kafka 데이터베이스 & 데이터
🐰
RabbitMQ 데이터베이스 & 데이터
🔤
Regex 유틸리티
📝
Markdown 유틸리티
📄
LaTeX 유틸리티
🔐
SSH & GPG 유틸리티
🌐
curl & HTTP 유틸리티
📜
reStructuredText 유틸리티
🚀
Postman 유틸리티
🎬
FFmpeg 유틸리티
🖼️
ImageMagick 유틸리티
🔍
ripgrep 유틸리티
🔍
fzf 유틸리티
📗
Microsoft Excel 오피스 애플리케이션
📘
Microsoft Word 오피스 애플리케이션
📙
Microsoft PowerPoint 오피스 애플리케이션
📝
한컴 한글 한컴오피스
📽️
한컴 한쇼 한컴오피스
📊
한컴 한셀 한컴오피스
📄
Google 문서 Google Workspace
📊
Google 스프레드시트 Google Workspace
📽️
Google 프레젠테이션 Google Workspace
🔌
Cadence Virtuoso EDA & 하드웨어
⚙️
Synopsys EDA EDA & 하드웨어
💎
Verilog & VHDL EDA & 하드웨어
LTSpice EDA & 하드웨어
🔧
KiCad EDA & 하드웨어
📝
Notion 생산성 도구
💎
Obsidian 생산성 도구
💬
Slack 생산성 도구
🎮
Discord 생산성 도구
🎨
Figma 디자인 도구
📘
Confluence Atlassian
📋
Jira Atlassian
🃏
Jest 테스팅
Vitest 테스팅
🎭
Playwright 테스팅
🌲
Cypress 테스팅
🌐
Selenium 테스팅
💙
Flutter 모바일 개발
📱
React Native 모바일 개발
🍎
SwiftUI 모바일 개발
📱
Expo 모바일 개발
🐍
Django 웹 프레임워크
FastAPI 웹 프레임워크
🌶️
Flask 웹 프레임워크
🍃
Spring Boot 웹 프레임워크
🍸
Gin 웹 프레임워크
Vite 빌드 도구
📦
Webpack 빌드 도구
esbuild 빌드 도구
🐘
Gradle 빌드 도구
🪶
Maven 빌드 도구
🔧
CMake 빌드 도구
🎮
Unity 게임 개발
🤖
Godot 게임 개발
🔌
Arduino 임베디드 & IoT
🔍
Nmap 보안
🐕
Datadog 모니터링
📖
Swagger/OpenAPI 문서화
검색 결과가 없습니다
EN KO

📦 텐서

텐서 생성

torch.tensor([1, 2, 3]) 리스트에서 텐서 생성
torch.zeros(3, 4) 0 텐서
torch.ones(2, 3) 1 텐서
torch.empty(2, 2) 초기화되지 않은 텐서
torch.rand(3, 4) 균등 랜덤 [0, 1)
torch.randn(3, 4) 정규 랜덤
torch.arange(0, 10, 2) 범위 텐서
torch.linspace(0, 1, 5) 균등 간격
torch.eye(4) 단위 행렬

📊 텐서 속성

t.shape, t.size() 텐서 형태
t.dtype 데이터 타입
t.device 디바이스 (CPU/GPU)
t.requires_grad 그래디언트 추적
t.numel() 요소 수
t.dim() 차원 수

🔧 타입 & 디바이스

t.float(), t.double(), t.int() 타입 변환
t.to(torch.float32) dtype으로 변환
t.cuda() GPU로 이동
t.cpu() CPU로 이동
t.to("cuda:0") 특정 GPU로 이동
torch.cuda.is_available() GPU 사용 가능 확인

🧮 텐서 연산

🔄 형태 변환

t.view(3, 4) 형태 변환 (연속 필요)
t.reshape(3, 4) 형태 변환 (유연)
t.flatten() 1D로 평탄화
t.squeeze() 크기 1 차원 제거
t.unsqueeze(0) 인덱스에 차원 추가
t.transpose(0, 1) 차원 교환
t.permute(2, 0, 1) 차원 재정렬

수학 연산

torch.add(a, b), a + b 덧셈
torch.mul(a, b), a * b 요소별 곱셈
torch.matmul(a, b), a @ b 행렬 곱셈
torch.mm(a, b) 2D 행렬 곱셈
torch.bmm(a, b) 배치 행렬 곱셈
torch.pow(t, 2), t ** 2 거듭제곱
torch.sqrt(t) 제곱근
torch.exp(t), torch.log(t) 지수/로그

📉 축소 연산

t.sum(), t.sum(dim=0) 합계
t.mean(), t.mean(dim=0) 평균
t.std(), t.var() 표준편차/분산
t.max(), t.min() 최대/최소
t.argmax(), t.argmin() 최대/최소 인덱스
t.prod()

🔗 텐서 결합

torch.cat([a, b], dim=0) 연결
torch.stack([a, b], dim=0) 스택 (새 차원)
torch.split(t, 2, dim=0) 청크로 분할
torch.chunk(t, 3, dim=0) n개 청크로 분할

Autograd (자동 미분)

📈 그래디언트 계산

x = torch.tensor([1.0], requires_grad=True) 그래디언트 추적 활성화
y.backward() 그래디언트 계산
x.grad 그래디언트 접근
x.grad.zero_() 그래디언트 초기화
with torch.no_grad(): 그래디언트 비활성화
x.detach() 그래프에서 분리
x.requires_grad_(True) 제자리 그래디언트 활성화

🧠 신경망 (nn)

📚 일반 레이어

nn.Linear(in_features, out_features) 완전 연결 레이어
nn.Conv2d(in_ch, out_ch, kernel) 2D 합성곱
nn.ConvTranspose2d(...) 전치 합성곱
nn.MaxPool2d(kernel_size) 최대 풀링
nn.AvgPool2d(kernel_size) 평균 풀링
nn.BatchNorm2d(num_features) 배치 정규화
nn.LayerNorm(normalized_shape) 레이어 정규화
nn.Dropout(p=0.5) 드롭아웃
nn.Embedding(num_embed, embed_dim) 임베딩 레이어
nn.LSTM(input_size, hidden_size) LSTM 레이어
nn.GRU(input_size, hidden_size) GRU 레이어

활성화 함수

nn.ReLU() ReLU 활성화
nn.LeakyReLU(0.1) Leaky ReLU
nn.Sigmoid() 시그모이드
nn.Tanh() Tanh
nn.Softmax(dim=1) 소프트맥스
nn.GELU() GELU 활성화

📉 손실 함수

nn.MSELoss() 평균 제곱 오차
nn.CrossEntropyLoss() 교차 엔트로피
nn.BCELoss() 이진 교차 엔트로피
nn.BCEWithLogitsLoss() 시그모이드 포함 BCE
nn.L1Loss() L1/MAE 손실
nn.NLLLoss() 음의 로그 우도

🏗️ 모델 정의

🔧 모델 구축

class Model(nn.Module): 커스텀 모델 정의
def __init__(self): super().__init__() 모델 초기화
def forward(self, x): return self.layer(x) 순전파
nn.Sequential(nn.Linear(10, 5), nn.ReLU()) 순차 모델
model.parameters() 모든 파라미터 가져오기
model.named_parameters() 이름 포함 파라미터

🎛️ 모델 모드

model.train() 학습 모드 설정
model.eval() 평가 모드 설정
model.to(device) 디바이스로 모델 이동

🏋️ 학습

⚙️ 옵티마이저

torch.optim.SGD(params, lr=0.01) SGD 옵티마이저
torch.optim.Adam(params, lr=0.001) Adam 옵티마이저
torch.optim.AdamW(params, lr=0.001) AdamW 옵티마이저
torch.optim.RMSprop(params, lr=0.01) RMSprop 옵티마이저
optimizer.zero_grad() 그래디언트 초기화
optimizer.step() 가중치 업데이트

📅 학습률 스케줄러

optim.lr_scheduler.StepLR(opt, step_size=10) 스텝 LR 감소
optim.lr_scheduler.ExponentialLR(opt, gamma=0.9) 지수 감소
optim.lr_scheduler.CosineAnnealingLR(opt, T_max) 코사인 어닐링
scheduler.step() 학습률 업데이트

🔁 학습 루프

output = model(input) 순전파
loss = criterion(output, target) 손실 계산
loss.backward() 역전파
optimizer.step() 파라미터 업데이트
torch.nn.utils.clip_grad_norm_(params, max_norm) 그래디언트 클리핑

📂 데이터 로딩

📦 DataLoader

DataLoader(dataset, batch_size=32, shuffle=True) DataLoader 생성
for batch in dataloader: 배치 반복
num_workers=4 병렬 데이터 로딩
pin_memory=True GPU용 메모리 고정
drop_last=True 불완전한 배치 버리기

📚 Dataset

class MyDataset(Dataset): 커스텀 데이터셋
def __len__(self): 데이터셋 길이 반환
def __getitem__(self, idx): 단일 샘플 반환
TensorDataset(x_tensor, y_tensor) 텐서에서 데이터셋

💾 저장 & 불러오기

📁 모델 체크포인트

torch.save(model.state_dict(), "model.pt") 모델 가중치 저장
model.load_state_dict(torch.load("model.pt")) 모델 가중치 불러오기
torch.save(model, "full_model.pt") 전체 모델 저장
torch.save({"model": m.state_dict(), "opt": o.state_dict()}, "ckpt.pt") 체크포인트 저장

💡 팁 & 모범 사례

유용한 팁

  • 추론 시 model.eval()과 torch.no_grad() 사용
  • 연산 전 데이터와 모델을 같은 디바이스로 이동
  • 혼합 정밀도 학습에 torch.cuda.amp 사용
  • 재현성을 위해 랜덤 시드 설정: torch.manual_seed()
  • 이미지 증강에 torchvision.transforms 사용
  • 성능 최적화에 torch.profiler로 프로파일링