일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 논문 리뷰
- yaml
- k8s
- numpy
- pytorch
- 텐서플로우
- FLASK
- tensorflow
- Deep Learning
- vue.js
- 파이토치
- GUI
- 컴퓨터 비전
- OpenCV
- Web Programming
- 데이터베이스
- Tkinter
- 장고
- POD
- 웹 프로그래밍
- paper review
- MariaDB
- 파이썬
- 딥러닝
- 그래픽 유저 인터페이스
- kubernetes
- Computer Vision
- Python
- Django
- Docker
- Today
- Total
목록전체 글 (101)
Maxima's Lab
안녕하세요, 오늘은 Django에서 Prior(Back) Page Link 에 대해서 알아보겠습니다. 첫번째 방법은 태그를 활용하는 방법입니다. Prior Page 두번째 방법은 "button" type의 Input을 활용한 방법입니다. 지금까지 Prior(Back) Page Link (이전 페이지 링크) 템플릿에 대해서 알아보았습니다.
안녕하세요, 오늘은 Django 설치, Project를 생성 및 Server를 실행하는 방법에 대해서 알아보겠습니다. 먼저, Windows Powershell 창을 열어 다음의 명령어를 입력하여 Django (장고)를 설치해줍니다. pip install django 이어서, Project를 생성하는 명령어 입니다. django-admin startproject "project_name" 예시 : django-admin startproject django_project_1 생성된 프로젝트 디렉토리로 경로를 옮깁니다. cd django_project_1 최종적으로 서버를 실행하는 명령어는 다음과 같습니다. python manage.py runserver 해당 명령어 실행을 통해 서버가 정상적으로 실행이 되었..
안녕하세요, 오늘은 Cuda, Blocks 그리고 Grids 에 대해서 알아보겠습니다. Cuda 란? : GPU (그래픽 처리 장치)에서 수행하는 병렬 처리 알고리즘에 대하여 C 프로그래밍 언어등을 이용하여 사용할 수 있도록 해주는 GPGPU 입니다. 여기서, GPGPU(General Purpose computing on Graphics Processing Units을 의미합니다. https://ko.wikipedia.org/wiki/CUDA CUDA - 위키백과, 우리 모두의 백과사전 위키백과, 우리 모두의 백과사전. CUDA 처리 흐름의 예 1. 메인 메모리를 GPU 메모리로 복사 2. CPU가 GPU에 프로세스를 지시함 3. GPU가 각 코어에 병렬 수행 4. GPU 메모리로부터의 결과물을 메인 메..
안녕하세요, 오늘은 Pytorch 내 torchvision.transforms에 대해 알아보도록 하겠습니다. transforms 내 알아볼 내용들은 다음과 같습니다. CenterCrop RandomCrop Resize RandomVerticalFlip & RandomHorizontalFlip 아래의 Original Image에 대해 적용해보도록 하겠습니다. 위의 이미지는 (256, 256, 3) Shape을 지니고 있는 이미지입니다. 먼저, (200, 200, 3) Shape로 Center Crop을 적용해보겠습니다. import torch import torchvision.transforms as transforms transforms = transforms.Compose( [transforms.ToT..
안녕하세요, 오늘은 Pytorch 내 Tensor와 Cuda 사용법에 대해서 알아보도록 하겠습니다. Tensor 및 Cuda 사용법에 대한 내용은 다음과 같습니다. torch.tensor() torch.as_tensor() size() dtype device unsqueeze() & squeeze() permute() & transpose() 다음은 Tensor와 Cuda를 사용하기 전 Cuda와 관련된 상태를 알아보는 코드입니다. import torch print(torch.cuda.is_available()) print(torch.cuda.current_device()) print(torch.cuda.device_count()) print(torch.cuda.get_device_name(0)) 위의 ..
안녕하세요, 오늘은 Pytorch 내 TensorDataset과 DataLoader에 대해 알아보도록 하겠습니다. 코드를 구현하기 위한 과정은 다음과 같습니다. 임의의 numpy.narray 타입의 데이터 셋 생성(train_x, train_y) numpy.narray 타입의 데이터 셋을 torch.Tensor 타입으로 변환 TensorDataset을 이용하여 데이터 셋 구성 DataLoader를 이용하여 Batch로 구성 위의 과정에 대해 전체 코드는 다음과 같습니다. import torch from torch.utils.data import TensorDataset, DataLoader import numpy as np train_x = np.random.randint(0, 256, (64, 3, 2..
안녕하세요, 오늘은 "U-Net: Convolutional Networks for Biomedical Image Segmentation" 위 논문에 대해서 리뷰를 해보도록 하겠습니다. 먼저 U-Net의 전체 구조에 대해서 살펴보겠습니다. 위의 U-Net의 구조를 보시면 전체적으로 왼쪽, 오른쪽 부분을 나눠서 생각할 수 있습니다. Left side : Convolution(3x3, ReLU), Max Pooling(Downsampling), Crop Right side : Convolution(3x3, ReLU), Convolution(1x1, ReLU), Upsampling, Copy 왼쪽과 오른쪽 부분 모두 Convolution(ReLU)가 동일하게 사용된다는 공통점이 있지만, 왼쪽은 Max Pooli..
안녕하세요, 오늘은 "SegNet : A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation" 위 논문에 대해서 리뷰를 해보도록 하겠습니다. SegNet은 Segmentic Pixel-wise Segmentation을 위한 모델이며, Encoder와 Decoder의 형태로 구성되어 있습니다. 모델의 전체 구조는 다음 그림과 같습니다. 위의 SegNet 아키텍처 내 좌측 Layer 구성이 Encoder, 우측 Layer 구성이 Decoder 입니다. 먼저, Encoder에 대한 내용입니다. [Encoder, 인코더] 위상적으로 VGG16의 Convolutional Layer와 동일하며, Fully Connected Layer 포함 ..