일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- pixelshuffle
- convolution
- superresolution
- deeplearning
- residuallearning
- 딥러닝
- Increasing Triplet Subsequence
- 8puzzle
- MDSR
- a*
- NeuralNetwork
- BFS
- CNN
- 동적계획법
- AStar
- leetcode
- 지도학습
- 준지도학습
- residualnetwork
- sr
- 비지도학습
- RESNET
- 합성곱
- SRCNN
- EDSR
- DFS
- PYTHON
- 증가하는부분수열
- 신경망
Archives
- Today
- Total
목록합성곱 (1)
이것저것 코딩하는 블로그

0. Fully-connected Layer (완전 연결 신경망) 앞서 신경망의 기초 개념을 살펴보았으니, 이번에는 다양한 신경망의 종류를 살펴보겠다. 그 중 가장 기본적인 것은 완전 연결 신경망 (fully-connected layer) 인데, 이는 이전에 살펴본 신경망들과 같이 k-1번째 계층의 모든 뉴런들과 k번째 계층의 모든 뉴런들이 연결되어 있는 신경망을 말한다. 이러한 계층 (이를 Affine 계층이라고 한다)을 쌓고, 하나의 fully-connected layer 뒤에 활성화 계층 (활성화 함수)를 연결한 것이 지금까지 살펴본 신경망의 기초 단위였다. 그러나 이는 어마어마한 계산량을 요구한다. 그렇다면 CNN은 이런 계층과 어떤 차이가 있을까? 1. CNN의 기본 구조 – Convolutio..
Computer Vision
2020. 12. 9. 13:24