일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
Tags
- 지도학습
- a*
- RESNET
- convolution
- BFS
- 준지도학습
- CNN
- 비지도학습
- PYTHON
- MDSR
- leetcode
- pixelshuffle
- NeuralNetwork
- AStar
- SRCNN
- deeplearning
- sr
- 딥러닝
- 신경망
- 합성곱
- EDSR
- 동적계획법
- residualnetwork
- residuallearning
- DFS
- 증가하는부분수열
- superresolution
- Increasing Triplet Subsequence
- 8puzzle
Archives
- Today
- Total
목록합성곱 (1)
이것저것 코딩하는 블로그
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/pBu4v/btqPIJHHI0e/YHvuaGW4Hux05tFXCnUJFk/img.png)
0. Fully-connected Layer (완전 연결 신경망) 앞서 신경망의 기초 개념을 살펴보았으니, 이번에는 다양한 신경망의 종류를 살펴보겠다. 그 중 가장 기본적인 것은 완전 연결 신경망 (fully-connected layer) 인데, 이는 이전에 살펴본 신경망들과 같이 k-1번째 계층의 모든 뉴런들과 k번째 계층의 모든 뉴런들이 연결되어 있는 신경망을 말한다. 이러한 계층 (이를 Affine 계층이라고 한다)을 쌓고, 하나의 fully-connected layer 뒤에 활성화 계층 (활성화 함수)를 연결한 것이 지금까지 살펴본 신경망의 기초 단위였다. 그러나 이는 어마어마한 계산량을 요구한다. 그렇다면 CNN은 이런 계층과 어떤 차이가 있을까? 1. CNN의 기본 구조 – Convolutio..
Computer Vision
2020. 12. 9. 13:24