← 홈

🦙

⌘K
🤖
Claude Code AI 도구
🤗
Hugging Face AI 도구
🦜
LangChain AI 도구
🧠
Keras AI 도구
🦙
Ollama AI 도구
🐍
Python 프로그래밍 언어
🟨
JavaScript 프로그래밍 언어
🔷
TypeScript 프로그래밍 언어
⚛️
React 프로그래밍 언어
🐹
Go 프로그래밍 언어
🦀
Rust 프로그래밍 언어
📊
MATLAB 프로그래밍 언어
🗄️
SQL 프로그래밍 언어
⚙️
C/C++ 프로그래밍 언어
Java 프로그래밍 언어
🟣
C# 프로그래밍 언어
🍎
Swift 프로그래밍 언어
🟠
Kotlin 프로그래밍 언어
Next.js 프로그래밍 언어
💚
Vue.js 프로그래밍 언어
🔥
Svelte 프로그래밍 언어
🎨
Tailwind CSS 프로그래밍 언어
💚
Node.js 프로그래밍 언어
🌐
HTML 프로그래밍 언어
🎨
CSS/SCSS 프로그래밍 언어
🐘
PHP 프로그래밍 언어
💎
Ruby 프로그래밍 언어
🔴
Scala 프로그래밍 언어
📊
R 프로그래밍 언어
🎯
Dart 프로그래밍 언어
💧
Elixir 프로그래밍 언어
🌙
Lua 프로그래밍 언어
🐪
Perl 프로그래밍 언어
🅰️
Angular 프로그래밍 언어
🚂
Express.js 프로그래밍 언어
🐱
NestJS 프로그래밍 언어
🛤️
Ruby on Rails 프로그래밍 언어
◼️
GraphQL 프로그래밍 언어
🟪
Haskell 프로그래밍 언어
💚
Nuxt.js 프로그래밍 언어
🔷
SolidJS 프로그래밍 언어
htmx 프로그래밍 언어
💻
VS Code 개발 도구
🧠
PyCharm 개발 도구
📓
Jupyter 개발 도구
🧠
IntelliJ IDEA 개발 도구
💚
Neovim 개발 도구
🔮
Emacs 개발 도구
🔀
Git DevOps & CLI
🐳
Docker DevOps & CLI
☸️
Kubernetes DevOps & CLI
☁️
AWS CLI DevOps & CLI
🔄
GitHub Actions DevOps & CLI
🐧
Linux 명령어 DevOps & CLI
💻
Bash 스크립팅 DevOps & CLI
🌐
Nginx DevOps & CLI
📝
Vim DevOps & CLI
🔨
Makefile DevOps & CLI
🧪
Pytest DevOps & CLI
🪟
Windows DevOps & CLI
📦
패키지 매니저 DevOps & CLI
🍎
macOS DevOps & CLI
🏗️
Terraform DevOps & CLI
🔧
Ansible DevOps & CLI
Helm DevOps & CLI
🔨
Jenkins DevOps & CLI
🔥
Prometheus DevOps & CLI
📊
Grafana DevOps & CLI
💻
Zsh DevOps & CLI
🐟
Fish Shell DevOps & CLI
💙
PowerShell DevOps & CLI
🔄
Argo CD DevOps & CLI
🔀
Traefik DevOps & CLI
☁️
Azure CLI DevOps & CLI
☁️
Google Cloud CLI DevOps & CLI
📟
tmux DevOps & CLI
🔧
jq DevOps & CLI
✂️
sed DevOps & CLI
📊
awk DevOps & CLI
🌊
Apache Airflow DevOps & CLI
🔢
NumPy 데이터베이스 & 데이터
🐼
Pandas 데이터베이스 & 데이터
🔥
PyTorch 데이터베이스 & 데이터
🧠
TensorFlow 데이터베이스 & 데이터
📈
Matplotlib 데이터베이스 & 데이터
🐘
PostgreSQL 데이터베이스 & 데이터
🐬
MySQL 데이터베이스 & 데이터
🍃
MongoDB 데이터베이스 & 데이터
🔴
Redis 데이터베이스 & 데이터
🔍
Elasticsearch 데이터베이스 & 데이터
🤖
Scikit-learn 데이터베이스 & 데이터
👁️
OpenCV 데이터베이스 & 데이터
Apache Spark 데이터베이스 & 데이터
🪶
SQLite 데이터베이스 & 데이터
Supabase 데이터베이스 & 데이터
🔵
Neo4j 데이터베이스 & 데이터
📨
Apache Kafka 데이터베이스 & 데이터
🐰
RabbitMQ 데이터베이스 & 데이터
🔤
Regex 유틸리티
📝
Markdown 유틸리티
📄
LaTeX 유틸리티
🔐
SSH & GPG 유틸리티
🌐
curl & HTTP 유틸리티
📜
reStructuredText 유틸리티
🚀
Postman 유틸리티
🎬
FFmpeg 유틸리티
🖼️
ImageMagick 유틸리티
🔍
ripgrep 유틸리티
🔍
fzf 유틸리티
📗
Microsoft Excel 오피스 애플리케이션
📘
Microsoft Word 오피스 애플리케이션
📙
Microsoft PowerPoint 오피스 애플리케이션
📝
한컴 한글 한컴오피스
📽️
한컴 한쇼 한컴오피스
📊
한컴 한셀 한컴오피스
📄
Google 문서 Google Workspace
📊
Google 스프레드시트 Google Workspace
📽️
Google 프레젠테이션 Google Workspace
🔌
Cadence Virtuoso EDA & 하드웨어
⚙️
Synopsys EDA EDA & 하드웨어
💎
Verilog & VHDL EDA & 하드웨어
LTSpice EDA & 하드웨어
🔧
KiCad EDA & 하드웨어
📝
Notion 생산성 도구
💎
Obsidian 생산성 도구
💬
Slack 생산성 도구
🎮
Discord 생산성 도구
🎨
Figma 디자인 도구
📘
Confluence Atlassian
📋
Jira Atlassian
🃏
Jest 테스팅
Vitest 테스팅
🎭
Playwright 테스팅
🌲
Cypress 테스팅
🌐
Selenium 테스팅
💙
Flutter 모바일 개발
📱
React Native 모바일 개발
🍎
SwiftUI 모바일 개발
📱
Expo 모바일 개발
🐍
Django 웹 프레임워크
FastAPI 웹 프레임워크
🌶️
Flask 웹 프레임워크
🍃
Spring Boot 웹 프레임워크
🍸
Gin 웹 프레임워크
Vite 빌드 도구
📦
Webpack 빌드 도구
esbuild 빌드 도구
🐘
Gradle 빌드 도구
🪶
Maven 빌드 도구
🔧
CMake 빌드 도구
🎮
Unity 게임 개발
🤖
Godot 게임 개발
🔌
Arduino 임베디드 & IoT
🔍
Nmap 보안
🐕
Datadog 모니터링
📖
Swagger/OpenAPI 문서화
검색 결과가 없습니다
EN KO

기초

설치

curl -fsSL https://ollama.com/install.sh | sh Linux에 설치
brew install ollama macOS에 설치
ollama serve Ollama 서버 시작

모델 관리

ollama pull llama3 모델 다운로드
ollama list 다운로드된 모델 목록
ollama show llama3 모델 정보 표시
ollama rm llama3 모델 제거
ollama cp llama3 my-llama3 모델 복사
ollama ps 실행 중인 모델 목록

모델 실행

ollama run llama3 실행 및 채팅
ollama run llama3 "What is Python?" 단일 프롬프트
ollama run codellama "Write a Python function" 코드 생성
echo "Hello" | ollama run llama3 파이프 입력

인기 모델

사용 가능한 모델

  • llama3 - Meta Llama 3 (8B), 범용
  • llama3:70b - Llama 3 70B, 더 강력
  • mistral - Mistral 7B, 빠르고 효율적
  • mixtral - Mistral MoE 8x7B
  • codellama - 프로그래밍용 Code Llama
  • phi3 - Microsoft Phi-3, 컴팩트 모델
  • gemma - Google Gemma 모델
  • qwen2 - 알리바바 Qwen 2
  • deepseek-coder - 코딩용 DeepSeek
  • nomic-embed-text - 텍스트 임베딩

API

REST API

완성 생성
curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Why is the sky blue?",
  "stream": false
}'
채팅 완성
curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "system", "content": "You are a helpful assistant." },
    { "role": "user", "content": "Hello!" }
  ],
  "stream": false
}'
임베딩 생성
curl http://localhost:11434/api/embeddings -d '{
  "model": "nomic-embed-text",
  "prompt": "Hello world"
}'
모델 목록
curl http://localhost:11434/api/tags

Python 클라이언트

설치 및 기본 사용
# pip install ollama

import ollama

# Generate
response = ollama.generate(
    model='llama3',
    prompt='Why is the sky blue?'
)
print(response['response'])

# Chat
response = ollama.chat(
    model='llama3',
    messages=[
        {'role': 'user', 'content': 'Hello!'}
    ]
)
print(response['message']['content'])
스트리밍
import ollama

# Streaming response
stream = ollama.chat(
    model='llama3',
    messages=[{'role': 'user', 'content': 'Tell me a story'}],
    stream=True
)

for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)
임베딩
import ollama

response = ollama.embeddings(
    model='nomic-embed-text',
    prompt='Hello world'
)

embedding = response['embedding']
print(f'Dimension: {len(embedding)}')
모델 관리
import ollama

# List models
models = ollama.list()
for model in models['models']:
    print(model['name'])

# Pull model
ollama.pull('llama3')

# Show model info
info = ollama.show('llama3')
print(info)

JavaScript 클라이언트

기본 사용
// npm install ollama

import { Ollama } from 'ollama';

const ollama = new Ollama();

// Generate
const response = await ollama.generate({
  model: 'llama3',
  prompt: 'Why is the sky blue?'
});
console.log(response.response);

// Chat
const chatResponse = await ollama.chat({
  model: 'llama3',
  messages: [{ role: 'user', content: 'Hello!' }]
});
console.log(chatResponse.message.content);
스트리밍
const stream = await ollama.chat({
  model: 'llama3',
  messages: [{ role: 'user', content: 'Tell me a story' }],
  stream: true
});

for await (const chunk of stream) {
  process.stdout.write(chunk.message.content);
}

커스터마이징

Modelfile

커스텀 모델 생성
# Modelfile
FROM llama3

# Set parameters
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40
PARAMETER num_ctx 4096
PARAMETER stop "<|end|>"

# Set system prompt
SYSTEM You are a helpful coding assistant.

# Create model
# ollama create mymodel -f Modelfile
GGUF 파일에서
# Modelfile
FROM ./my-model.gguf

TEMPLATE """{{ if .System }}<|system|>
{{ .System }}<|end|>
{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}<|end|>
{{ end }}<|assistant|>
"""

매개변수

생성 매개변수
ollama.generate(
    model='llama3',
    prompt='Hello',
    options={
        'temperature': 0.7,    # Creativity (0-2)
        'top_p': 0.9,          # Nucleus sampling
        'top_k': 40,           # Top-k sampling
        'num_predict': 128,    # Max tokens
        'num_ctx': 4096,       # Context window
        'repeat_penalty': 1.1, # Repetition penalty
        'seed': 42,            # Random seed
    }
)

통합

LangChain 통합

LangChain과 함께
from langchain_community.llms import Ollama
from langchain_community.chat_models import ChatOllama
from langchain_core.messages import HumanMessage

# LLM
llm = Ollama(model="llama3")
response = llm.invoke("Hello!")

# Chat model
chat = ChatOllama(model="llama3")
response = chat.invoke([HumanMessage(content="Hello!")])

# Embeddings
from langchain_community.embeddings import OllamaEmbeddings

embeddings = OllamaEmbeddings(model="nomic-embed-text")
vector = embeddings.embed_query("Hello world")

OpenAI 호환성

OpenAI 호환 API
# Ollama exposes OpenAI-compatible endpoint
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama"  # Any string works
)

response = client.chat.completions.create(
    model="llama3",
    messages=[{"role": "user", "content": "Hello!"}]
)

print(response.choices[0].message.content)

고급

설정

환경 변수
# Model storage location
export OLLAMA_MODELS=/path/to/models

# Server host/port
export OLLAMA_HOST=0.0.0.0:11434

# Keep model loaded
export OLLAMA_KEEP_ALIVE=5m

# GPU settings
export OLLAMA_NUM_GPU=1
export CUDA_VISIBLE_DEVICES=0

# Debug mode
export OLLAMA_DEBUG=1

Docker

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama Docker로 실행
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama GPU로 실행
docker exec -it ollama ollama run llama3 컨테이너에서 모델 실행