tf.constant([1, 2, 3]) | 상수 텐서 생성 |
tf.Variable([1, 2, 3]) | 변수 텐서 생성 |
tf.zeros((3, 4)) | 0 텐서 |
tf.ones((2, 3)) | 1 텐서 |
tf.fill((2, 2), 7) | 값으로 채우기 |
tf.eye(4) | 단위 행렬 |
tf.range(0, 10, 2) | 범위 텐서 |
tf.linspace(0.0, 1.0, 5) | 균등 간격 |
tf.random.uniform((3, 4)) | 균등 랜덤 |
tf.random.normal((3, 4)) | 정규 랜덤 |
tf.random.truncated_normal((3, 4)) | 절단 정규 |
tf.random.set_seed(42) | 랜덤 시드 설정 |
tf.random.shuffle(tensor) | 텐서 셔플 |
t.shape | 텐서 형태 |
t.dtype | 데이터 타입 |
t.device | 디바이스 |
tf.size(t) | 요소 수 |
tf.rank(t) | 차원 수 |
t.numpy() | NumPy로 변환 |
tf.add(a, b), a + b | 덧셈 |
tf.subtract(a, b), a - b | 뺄셈 |
tf.multiply(a, b), a * b | 요소별 곱셈 |
tf.matmul(a, b), a @ b | 행렬 곱셈 |
tf.pow(t, 2) | 거듭제곱 |
tf.sqrt(t) | 제곱근 |
tf.exp(t), tf.math.log(t) | 지수/로그 |
tf.abs(t) | 절대값 |
tf.reduce_sum(t) | 모든 요소 합 |
tf.reduce_mean(t) | 평균 |
tf.reduce_max(t), tf.reduce_min(t) | 최대/최소 |
tf.reduce_prod(t) | 곱 |
tf.argmax(t), tf.argmin(t) | 최대/최소 인덱스 |
tf.reshape(t, (3, 4)) | 텐서 형태 변환 |
tf.squeeze(t) | 크기 1 차원 제거 |
tf.expand_dims(t, axis=0) | 차원 추가 |
tf.transpose(t) | 전치 |
tf.concat([a, b], axis=0) | 연결 |
tf.stack([a, b], axis=0) | 텐서 스택 |
tf.split(t, 3, axis=0) | 텐서 분할 |
model = tf.keras.Sequential([...]) | Sequential 모델 생성 |
model.add(tf.keras.layers.Dense(64)) | 레이어 추가 |
model.summary() | 모델 요약 출력 |
model.compile(optimizer, loss, metrics) | 모델 컴파일 |
inputs = tf.keras.Input(shape=(784,)) | 입력 정의 |
x = tf.keras.layers.Dense(64)(inputs) | 레이어 적용 |
model = tf.keras.Model(inputs, outputs) | 모델 생성 |
layers.Dense(units, activation="relu") | Dense/완전 연결 |
layers.Conv2D(filters, kernel_size) | 2D 합성곱 |
layers.MaxPooling2D(pool_size) | 최대 풀링 |
layers.Flatten() | 평탄화 레이어 |
layers.Dropout(rate) | 드롭아웃 |
layers.BatchNormalization() | 배치 정규화 |
layers.LSTM(units) | LSTM 레이어 |
layers.Embedding(vocab_size, embed_dim) | 임베딩 |
activation="relu" | ReLU |
activation="sigmoid" | 시그모이드 |
activation="tanh" | Tanh |
activation="softmax" | 소프트맥스 |
tf.keras.activations.gelu | GELU |
model.compile(optimizer="adam", loss="sparse_categorical_crossentropy", metrics=["accuracy"]) | 모델 컴파일 |
model.fit(x_train, y_train, epochs=10, batch_size=32) | 모델 학습 |
model.fit(..., validation_data=(x_val, y_val)) | 검증 데이터 포함 |
model.fit(..., validation_split=0.2) | 자동 검증 분할 |
tf.keras.optimizers.SGD(lr=0.01) | SGD |
tf.keras.optimizers.Adam(lr=0.001) | Adam |
tf.keras.optimizers.RMSprop(lr=0.001) | RMSprop |
tf.keras.optimizers.AdamW(lr=0.001) | AdamW |
"sparse_categorical_crossentropy" | 정수 레이블용 |
"categorical_crossentropy" | 원핫 레이블용 |
"binary_crossentropy" | 이진 분류 |
"mse" or "mean_squared_error" | 평균 제곱 오차 |
"mae" or "mean_absolute_error" | 평균 절대 오차 |
tf.keras.callbacks.ModelCheckpoint(path) | 최고 모델 저장 |
tf.keras.callbacks.EarlyStopping(patience=5) | 조기 종료 |
tf.keras.callbacks.TensorBoard(log_dir) | TensorBoard 로깅 |
tf.keras.callbacks.LearningRateScheduler(fn) | 학습률 스케줄러 |
tf.keras.callbacks.ReduceLROnPlateau() | 정체 시 LR 감소 |
model.evaluate(x_test, y_test) | 테스트 데이터 평가 |
model.predict(x_new) | 예측 수행 |
model.predict_classes(x_new) | 클래스 예측 (폐기) |
tf.argmax(model.predict(x), axis=1) | 클래스 예측 얻기 |
tf.data.Dataset.from_tensor_slices((x, y)) | 텐서에서 생성 |
dataset.batch(32) | 데이터 배치 |
dataset.shuffle(buffer_size) | 데이터 셔플 |
dataset.prefetch(tf.data.AUTOTUNE) | 성능을 위한 프리페치 |
dataset.map(transform_fn) | 변환 적용 |
dataset.cache() | 데이터셋 캐시 |
dataset.repeat() | 데이터셋 반복 |
tf.keras.datasets.mnist.load_data() | MNIST 데이터셋 |
tf.keras.datasets.cifar10.load_data() | CIFAR-10 데이터셋 |
tf.keras.datasets.imdb.load_data() | IMDB 리뷰 |
model.save("model.keras") | 전체 모델 저장 |
tf.keras.models.load_model("model.keras") | 모델 불러오기 |
model.save_weights("weights.h5") | 가중치만 저장 |
model.load_weights("weights.h5") | 가중치 불러오기 |
tf.saved_model.save(model, "saved_model/") | SavedModel 형식 |