일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 파이토치
- Tkinter
- GUI
- Docker
- Web Programming
- paper review
- 컴퓨터 비전
- numpy
- 데이터베이스
- Django
- Computer Vision
- yaml
- 딥러닝
- 파이썬
- pytorch
- kubernetes
- k8s
- tensorflow
- FLASK
- POD
- 웹 프로그래밍
- OpenCV
- 장고
- Deep Learning
- Python
- 논문 리뷰
- MariaDB
- 텐서플로우
- vue.js
- 그래픽 유저 인터페이스
- Today
- Total
목록Deep Learning (4)
Maxima's Lab
안녕하세요, 오늘은 Tensorflow 프레임워크에서 Classification 모델을 .onnx 파일과 .trt 파일로 변환하고 해당 파일을 활용하여 Inference 하는 방법에 대해서 알아보겠습니다. 이를 위해 TEST를 진행한 패키지 버전 및 환경은 다음과 같습니다. - OS : Ubuntu 22.04- CUDA : 11.8- GPU : NVIDIA GeForce RTX 4070 Laptop GPU- Python : 3.10.12- tensorflow : 2.14.0- tf2onnx : 1.16.1- onnxruntime-gpu : 1.18.1- nvidia-tensorrt : 8.4.3.1- pycuda : 2024.1 먼저, tensorflow 2 모델을 onnx 파일로 변환하는 코드에 대해서..
안녕하세요, 오늘은 Label Smoothing의 개념에 대해서 알아보고 알아보겠습니다. Label Smoothing (라벨 스무딩)이란, 딥러닝 분류 모델을 학습 시 사용하는 정규화 기법이며, 모델 학습 시 과확신을 방지하기 위해 사용합니다. 이를 위해 다음과 같이 One-Hot Encoding Labeling을 조정하게 됩니다. (Ex) : [1, 0, 0, 0, 0] ==> [0.8, 0.05, 0.05, 0.05, 0.05] 위와 같이 적용하기 위해서는 Categorical Crossentropy 함수를 수정해야 합니다. def label_smoothing_loss(y_true, y_pred, label_smoothing=0.1): num_classes = tf.cast(tf.shape(y_tru..
안녕하세요, 오늘은 딥러닝에서 Normalization (정규화)에 대해서 알아보겠습니다. 딥러닝에서 Normalization은 입력 데이터를 조정하여 모델의 학습 성능을 개선하는 방법 중 하나입니다. 여러 종류의 Normalization 기법이 있으며, 가정 널리 사용되는 종류들은 다음과 같습니다. Batch Normalization (BN) : 각 미니배치의 입력 데이터를 정규화하여 평균과 분산을 조정하는 방법입니다. 이를 통해 학습 도중 발생하는 Internal Covariate Shift를 줄일 수 있으며, 더욱 안정적인 학습이 가능해집니다. Layer Normalization (LN) : BN과 유사하지만, 전체 미니배치 대신 레이어 내에서 평균과 분산을 계산하여 정구화하는 방법입니다. BN에 ..
오늘은 Deep Learning (딥러닝) 모델에서 많이 사용되는 Loss Function (손실 함수)에 대해서 알아보겠습니다. Cross-Entropy Loss 함수와의 합성 연산을 통해 합성 함수를 만들어서 주로 사용하는 Loss Function들은 다음과 같습니다. Binary Cross-Entropy Loss Categorical Cross-Entropy Loss Sparse Categorical Cross-Entropy Loss 3가지 Loss Function에 대해서 알아보기 전에 Cross-Entropy Function에 대해서 알아보도록 하겠습니다. ※ Cross-Entropy (CE) Function : $CE = - \sum_{i}^{C}t_i\text{log}(s_i)$ (여기서, ..