강의확인
- SATRN이 원본과 다르다고 한다.
- encode할때 transpose를 적용함
- [b,c,h,w] -> [b, h*w, c]
- 원래대로 하면 좋다고… 왜?
- shallow cnn에 dense net을사용
- positionalencoding2d도 다름
- 원래 with, hieht각각 positional를 적용하여 alpha, beta를 곱해주고 둘을 더하는 형태
- alpha, beta는 feature 맵에서 global avg pooling으로 alpha beta를 regression으로 구해준다고한다.
- 간단하게 50,50으로 만들었다고한다.
- 어케 구현?
- 원래 with, hieht각각 positional를 적용하여 alpha, beta를 곱해주고 둘을 더하는 형태
- encode할때 transpose를 적용함
오늘한일
- satrn에서 tps넣는 과오를 지움
- satrn코드 확인
- 분석이 오래걸린다…