강의확인

  • SATRN이 원본과 다르다고 한다.
    • encode할때 transpose를 적용함
      • [b,c,h,w] -> [b, h*w, c]
      • 원래대로 하면 좋다고… 왜?
    • shallow cnn에 dense net을사용
    • positionalencoding2d도 다름
      • 원래 with, hieht각각 positional를 적용하여 alpha, beta를 곱해주고 둘을 더하는 형태
        • alpha, beta는 feature 맵에서 global avg pooling으로 alpha beta를 regression으로 구해준다고한다.
      • 간단하게 50,50으로 만들었다고한다.
      • 어케 구현?

오늘한일

  • satrn에서 tps넣는 과오를 지움
  • satrn코드 확인
    • 분석이 오래걸린다…