Paper Info

  • Accepted on NeurIPS 2020
  • Authors: Jonathan Ho, Ajay Jain, Pieter Abbeel
  • Affiliation: UC Berkeley
  • arXiv link: https://arxiv.org/abs/2006.11239
  • Task: image generation
  • TLDR: diffusion probabilistic model로 high quality image 생성 가능

1. Background

diffusion probabilistic model from paper

 

Generative adversarial networks (GANs), autoregressive models, flows, variational autoencoders (VAEs) 등을 통해 image, audio를 잘 생성할 수 있으며, 각 분야는 연구가 계속되고 있었음

 

그에 반해 diffusion probabilistic model (= diffusion model)은 정의하기도 쉽고 학습하기도 쉬운데, 해당 분야에 대한 연구가 이뤄지지 않고 있음

 

즉, diffusion model이 high quality samples를 생성할 수 있는 지?에 대한 물음에 대한 답이 논문의 motivation임

 

+ 참고

diffusion probabilistic model from YouTube

 

Diffusion을 알기 위해 ICML 2015에 accept된 Deep Unsupervised Learning using Nonequilibrium Thermodynamics 논문을 직접 읽기보다는, 저자가 설명한 영상 앞부분만 봐도 대충 감 잡는데는 도움이 됨

핵심은 forward process에 대한 reverse process를 Gaussian으로 모델링할 수 있다는 것


2. Method

2.1. Training

training algorithm from paper

 

  • Model input : perturbed image x, timestep t
  • Model output : image x를 perturb하는데 사용된 noise에 대한 prediction (noise를 predict)
  • Objective : image x를 perturb한 noise와 predicted noise 간의 L2 loss

전반적으로 original diffusion model과 꽤 차이가 있다보니, 2가지 의문점이 드는 것이 자연스러움

 

  1. Objective가 왜 저렇게 되는지?
  2. Model input을 어떻게 넣어주는지?

 

2.1.1. Objective

 

(좌) DPM 논문과 동일 / (우) DPM 논문과 다른 부분

 

Likelihood를 위와 같이 수식적으로 잘 만져서, 최종적으로 Equation 5를 maximize하면 likelihood가 maximize된다고 보면 됨

(Equation 5가 결국 objective가 됨)

Equation 5 from paper

 

Loss는 총 3가지 항이 있음 → prior matching, denoising, reconstruction

 

 

1. Prior matching

 

Forward process의 variance를 constant로 fix하여 prior matching term을 날릴 수 있음

 

 

2. Denoising

Equation 8 from paper

 

Denoising term의 본질은 multivariate Gaussian distribution간의 KL divergence이기에, Equation 8로 표현할 수 있음

 

Equation 12와 그 유도식 from paper

 

Equation 8을 수식적으로 잘 만져주면, Equation 12 식이 나오게 됨

 

Equation 14

 

Equation 12 앞에 있는 곱해주는 term을 1로 두어, simplified loss인 Equation 14로 학습

(이는 구현의 편의성+ sample quality에 더 좋았기에 사용했다고 함)

 

참고로 곱해주는 term을 1로 두게 되면 timestep t가 작을수록 loss를 down-weight하는 의미를 가지게 됨

 

즉, simplified loss로 학습함으로써 모델은 more difficult denoising task인 larger timestep t에 focus하게 됨

 

 

3. Reconstruction

Equation 13 from paper

 

실제 input image는 pixel space인 [0, 255]로 discrete함

 

Discrete log-likelihood를 계산하기 위해, Gaussian discrete decoder를 사용

 

Gaussian discrete decoder 설명

 

식이 되게 복잡해보이는데, case로 쪼개서 보면 별거 아님 ㅇㅇ

 

논문에도 나와있듯이, Gaussian discrete decoder 말고 다른걸 사용해도 됨

 

 

2.1.2. Model Input

 

전반적인 모델 구조로는 Wide ResNet backbone의 U-Net을 조금 변형해서 사용

(group normalization, self-attention, drop-out 등의 변형이 있지만 자세하기 짚지 않고 넘어감)

 

사실상 image를 input으로 넣는 것은 익숙하다보니 넘어가는데, timestep t를 어떻게 넣어줘야하는 지가 관건

 

결론만 말하자면, Transformer sinusoidal position embedding + MLP를 거쳐서 Conv block 안에 잘 넣어줌

 

time embedding from Reference 2
timestep embedding code from Reference 1

 

Conv block from Reference 2
add timestep embedding in Conv block code from Reference 1

 

 

2.2. Inference

inference algorithm from paper

 

N(0, I)에서 x_T sample해서 timestep을 줄여가면서 image generation하면 됨

 

여기서 의문이 들 수 있는 포인트라고 하면 x_{t-1}을 왜 저렇게 구하는지? 정도일 듯함

 

Equation 11, sigma selection from paper

 

x_t에 noise를 뺀 다음 보정하는 식은 Equation 11을 참고하면 이해할 수 있음

 

sigma를 어떻게 선택하는지는 forward process에서 사용했던 variance를 사용하거나 Equation 7에서의 값을 사용하면 됨

(논문에서는 어떤 sigma를 선택하든 비슷한 결과를 냈다고 함)

 


4. Conclusions

The author's conclusions

장점 2가지

1. diffusion model로 high-quality image를 generation할 수 있음

2. diffusion model을 학습할 때, 특별한 어려움이 없음

 

단점 2가지

1. image generation 속도가 너무 느림

2. negative log likelihood (lossless codelength)가 다른 likelihood model에 비해 안좋음

 

2번의 이유에 대해서는 diffusion model 자체가 excellent lossy compressor에 대한 inductive bias가 있다라고 표현

(자세한 내용은 Section 4.3 참고)

 

My Conclusion

수학적으로 어렵진 않지만 볼게 있다보니, 메인 흐름을 놓치기가 쉬운것 같음

 

또한 적당히 empirical하게 퉁치고 넘어가는 부분도 있긴 하다만, 기존의 연구인 NCSN과의 연관성, 결국은 좋은 performance를 냈다는 점 등은 좋게 생각하며 재미있게 읽었음

 

Rating

Good


Extra

오늘 방문한 식당은애즈라이크입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.05.11 (토) 런치

한줄평

분위기 좋은 무난한 브런치

재방문의사

경복궁 근처에서 브런치를 먹고 싶으면 방문할 듯

별점요약

1. 맛 : 4/5
2. 위생 : 5/5
3. 가격 : 4/5
4. 분위기 : 4/5
5. 편의시설 : 5/5


1. 맛

(1) 리코타 베이컨 샌드위치 / (2) 치폴레 닭가슴살 치아바타 샌드위치 / (3) 고구마 스프

메뉴별 맛 별점
 
리코타 베이컨 샌드위치 : 4/5 (추천)
치폴레 닭가슴살 치아바타 샌드위치 : 4/5 (추천)

고구마 스프 : 3/5 (추천 X)
 
 
리코타 베이컨 샌드위치 (추천)
 
밸런스가 잘맞는 브런치 한상입니다.

스크램블 에그가 크리미하고 약간 느끼할 수 있는데 썬드라이즈 토마토와 루꼴라를 곁들인 샌드위치를 먹으면 초기화됩니다.

베이컨이 살짝 간이 있긴하다만, 감자가 또 간이 강하지 않아 전반적인 밸런스가 잘 맞다고 생각되었습니다.
 
 
치폴레 닭가슴살 치아바타 샌드위치 (추천)
 
약간 매콤하긴 하지만, 충분히 건강한 맛의 치아바타 샌드위치입니다.

닭가슴살도 퍽퍽하지 않고, 닭비린내도 나지 않아 좋습니다.

 

 

고구마 스프 (추천 X)

 

따뜻한 스프가 찾겨서 시켰는데, 맛이 좀 달아서 식사 전에 먹으면 다른 음식의 맛이 잘 안느껴질 것 같습니다.

식사 후에 시킨다면 어울릴 수 있을 것 같습니다.


2. 위생

전반적으로 위생 상태는 매우 깔끔했습니다.

여름이라 슬슬 날이 더워짐에도 불구하고 초파리 같은 벌레도 안보였고, 다른 식기류의 상태도 깔끔했습니다.

위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

메뉴판

 

양이 적어보이는데, 먹다보면 생각외로 배가 부르다보니 비싸다고 느껴지진 않았습니다.

메뉴 3개 (리코타 베이컨 샌드위치 13,500 + 치폴레 닭가슴살 치아바타 샌드위치 14,000 + 고구마 스프 7,000)해서 34,500원 나왔습니다.

 

 


4. 분위기

가게 내부

브런치 가게이다보니, 확실히 분위기 자체는 좋았습니다.

창도 나있다보니 답답한 느낌도 없고 대화하기에도 좋았습니다.


5. 편의시설

  • 남녀 화장실 구분
  • 물 셀프, 식기류는 테이블에 세팅되어있음

오늘 방문한 식당은문득입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.05.06 (월) 런치

한줄평

가성비 좋은 양식집

재방문의사

서울대입구 근처에서 적당한 퓨전 양식집을 찾는다면 재방문할듯?

별점요약

1. 맛 : 4/5
2. 위생 : 5/5
3. 가격 : 4/5
4. 분위기 : 4/5
5. 편의시설 : 3/5


1. 맛

(좌) 데미 돈마호크 커틀렛 / (우) 베이컨 청양 크림파스타

메뉴별 맛 별점

 

데미 돈마호크 커틀렛 : 4/5 (추천)

베이컨 청양 크림파스타 : 4/5 (추천)

 

 

데미 돈마호크 커틀렛 (추천)

 

고기가 질기지 않아 잘 썰리며, 양도 제법 되고, 적당히 바삭합니다.

하지만 입천장이 까질 정도의 바삭함은 없으니, 이를 기대하고 시키면 다소 아쉬울 것 같습니다.

 

 

베이컨 청양 크림파스타 (추천)

 

기본 맵기는 신라면 정도로, 맵기를 조절할 수 있습니다.

청양 고추로 매운맛을 내서 그런지, 뒷맛이 깔끔하게 매웠으며 속이 아리지 않았습니다.

크림 파스타를 평소에 느끼해서 많이 먹지 못한 분들은, 맛있게 먹을 수 있을 것 같습니다.


2. 위생

가게 안이 작다보니, 전반적으로 위생 상태는 매우 깔끔했습니다.
여름이라 슬슬 날이 더워짐에도 불구하고 초파리 같은 벌레도 안보였고, 다른 식기류의 상태도 깔끔했습니다.
위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

(좌) 메뉴판 / (우) 영수증

 

양이 제법 되기에, 전반적으로 가격이 비싸다고 생각되진 않았습니다.
메뉴 2개 (데미 돈마호크 커틀렛 + 베이컨 청양 크림파스타)해서 총 36,500원 나왔습니다.


4. 분위기

가게 안이 좁다보니, 약간의 답답함은 있었습니다.

적당히 양식 먹기엔 나쁘진 않지만, 분위기를 내기엔 적합하지 않은 것 같습니다.


5. 편의시설

  • 화장실 존재 (가게 내에 존재 X)
  • 식기, 휴지 등은 테이블마다 기본 세팅
  • 물은 종업원 분이 직접 따라주는 형태

Paper Info


1. Brief Summary

texture generation overview from paper

 

Source image에 대해, 다음과 같은 방법을 통해 texture generation

 

1. Source image에 대한 CNN의 각 layer별 output을 구함

2. 1번에서 구한 output에 대해 Gram matrix를 계산

3. Random noise image에 대한 CNN의 각 layer별 output을 구함

4. 3번에서 구한 output에 대해 Gram matrix를 계산 

5. 2번, 4번에서 구한 Gram matrix간의 mean-squared distance가 minimize되도록 random noise image update


2. Why Gram matrix?

해당 논문을 찬찬히 살펴보면 생각해볼 점들이 꽤 많음

(ex. CNN에서 spatial dimension을 맞춰주기 위한 zero padding이 야기할 수 있는 문제점 등)

 

하지만 가장 중요한 점은 왜 Gram matix를 쓰는지가 제일 중요한 key point라고 생각하기에, 이만 짚고 넘어감

 

먼저, 저자들이 reference로 삼은 previous work에서는 다음과 같은 방법으로 source image로부터 texture을 생성함

1. extract features of different sizes homogeneously from the source image

2. compute a spatial summary statistic on the feature responses to obtain a stationary description of the source image
3. find a new image with the same stationary description by performing gradient descent on a random image

 

기존 연구에서는 linear filter bank + carefully chosen summary statistics를 사용한 반면,

해당 논문은 CNN을 통해 구한 feature space + only one spatial summary statistic을 사용함

 

여기서 spatial summary statistic으로 feature responses간의 correlation을 이용

(feature responses간의 correlation = layer output의 Gram matrix, 용어의 정의로 따지자면 다른데 중요하지 않기에 넘어감)

 

그렇다면 spatial summary statistic으로 왜 Gram matrix를 사용하는지?만 이해하면 됨

 

Texture는 definition에 따라 stationary해야하기에, spatial information에 agnostic해야함

(Textures are per definition stationary, so a texture model needs to be agnostic to spatial information)

 

CNN을 통해 구한 feature responses는 spatial information을 가지고 있기에, 이들간의 correlations를 사용하여 spatial information을 날린다...라고 생각하면 됨.

 

즉, spatial summary statistic의 수단으로 Gram matrix를 사용한 것이지 'Gram matrix = texture'라고 생각하는 것은 잘못된 것

 

다시 한번 정리하자면

1. Texture의 정의상 stationary해야함 → spatial information에 agnostic해야함

2. CNN의 layer output인 feature responses는 spatial information을 가지고 있음

3. Spatial information 지우기 위해 feature responses간의 correlations (Gram matrix)를 이용함

(여기서 spatial information을 지우기 위해 다양한 방법들이 존재할 수 있으며, 해당 논문에서는 Gram matrix를 사용)


3. Conclusions

The author's conclusions

기존 연구에 비해서 texture generation 시간이 꽤 많이 걸린다...라는 점을 단점으로 짚고 있음

 

My Conclusion

예전 논문이라 그런지, 다양한 분석을 통해 재밌는 생각할 거리들을 던져준다는 점이 매우 재밌었음

하지만... 기존 연구의 framework를 그대로 가져다쓰고

CNN + Gram matrix로 잘된다!라는 걸 보여준게 다이다보니, contribution이 애매하다고 생각됨

물론 이 시기에는 이제 막 부흥하는 시기다보니, 이정도면 충분히 괜찮다고 생각되긴 함

 

추가적으로 아쉬운 점은 texture generation result에 대한 qualitative result만 있지, quantitative result가 없다는 것임

 

Rating

Good

오늘 방문한 식당은가츠라 롯데몰 수지점입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.04.23 (화) 디너

한줄평

무난한 돈까스와 라멘

재방문의사

롯데몰에서 쇼핑하다 돈까스와 라멘이 당긴다면 재방문할듯

별점요약

1. 맛 : 3.5/5
2. 위생 : 5/5
3. 가격 : 4/5
4. 분위기 : 3.5/5
5. 편의시설 : 5/5


1. 맛

(좌) 가츠동 + 로스가츠 / (우) 소유라멘 + 샐러드

 

메뉴별 맛 별점
 
가츠동 : 3/5 (추천 X)

로스가츠 : 4/5 (추천)
소유라멘 : 4/5 (추천)
 
 
가츠동 (추천 X)
 
가츠동에 올라간 고명들의 간이 쎄다보니, 상대적으로 밥이 많이 찾기게 되어서 아쉬웠습니다.

또한 돈까스가 어느정도는 눅눅하다보니 아쉬웠습니다.

 

 

로스가츠 (추천)

 

요즘 스타일의 일식 돈가츠처럼 튀김옷이 과자처럼 엄청 바삭한 스타일은 아니다보니, 이를 기대하고 가면 아쉬울 수 있겠습니다.

다만 고기 자체가 두껍고, 튀김옷이 얇으며, 적당한 바삭함이 있다보니 먹으면서 물리지 않고 맛있게 먹을 수 있겠습니다.

 

 

소유라멘 (추천)

 

특별한 건 없지만, 국물 간이 삼삼하며 면 식감 좋은 소유라멘입니다.


2. 위생

롯데몰 안에 있다보니, 전반적으로 위생 상태는 매우 깔끔했습니다.

여름이라 슬슬 날이 더워짐에도 불구하고 초파리 같은 벌레도 안보였고, 다른 식기류의 상태도 깔끔했습니다.

위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

(좌) 메뉴판 / (우) 영수증

 

전반적으로 돈가츠 가격은 비싸다고 느껴지진 않았지만, 라멘은 가격이 다소 아쉬웠습니다.

2인 세트 메뉴해서 총 34,000원 나왔습니다.


4. 분위기

가게 입구

백화점 등에 입주한 무난한 음식점 분위기입니다.

아이가 있는 가족이 방문한 경우, 다소 시끄러울 수 있겠습니다.


5. 편의시설

  • 화장실 존재 (남녀 화장실 구분, 층 내)
  • 수저 휴지 등 셀프
  • 태블릿으로 주문

오늘 방문한 식당은프루입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.03.30 (토) 런치

한줄평

맛있고 힙한 종로 일식집

재방문의사

종로 근처에서 일식 덮밥을 먹고 싶으면 방문할듯?

별점요약

1. 맛 : 4/5
2. 위생 : 5/5
3. 가격 : 4/5
4. 분위기 : 4/5
5. 편의시설 : 3/5


1. 맛

(상) 부타동 + 고기 추가 / (하) 마구로동

 

메뉴별 맛 별점

 

부타동 + 고기 추가 : 4/5 (추천)

마구로동 : 4/5 (추천)

 

 

부타동 + 고기 추가 (추천)

 

메뉴판에는 안맵다고 되어있으나... 맵찔이 기준으로 생각보다 매운 맛이 있었습니다.

그래도 맛있게 적당히 맵고 맛있었습니다.

고기 추가를 해서 그런지, 고기 양이 많아서 고기만으로 배가 찰 정도입니다.

다만 간이 좀 있는 편인지라, 밥 없이 먹기는 좀 힘들 것 같습니다.

 

 

마구로동 (추천)

 

참치의 맛 자체는 살짝 아쉬웠지만, 적당히 씹히면서도 녹는 식감 자체는 너무 좋았습니다.

계속 먹다보면 맛이 다소 심심할 수 있는데, 같이 나온 와사비와 궁채무침을 곁들인다면 다채롭게 즐길 수 있습니다.


2. 위생

수저, 접시, 물잔 등의 상태는 깔끔했습니다.
구석구석봐도 거미줄이나 벌레도 안보였습니다.
위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

(좌) 메뉴판 / (우) 영수증

 

종로 근처의 일식 덮밥집 가격을 생각하면 가격이 크게 비싸지도, 그렇다고 저렴하지는 않은 가격입니다.

 

메뉴 2개 (부타동 + 고기 추가, 마구로동)해서 34,000원 나왔습니다.


4. 분위기

(좌) 프루 가게 입구 / (우) 프루 가게 내부

 

 

사장님만의 분위기를 잔뜩 담은 소품들, 음악 등으로 인해 어느정도 가게의 색깔이 존재하다보니, 연인 혹은 친구들끼리 오기 좋을 것 같습니다.

 

다만, 가게가 밖에서 안을, 그리고 안에서도 밖을 볼 수 있는 통유리창으로 되어있다보니 바깥 자리에 앉을 경우 지나가는 사람과 눈을 마주칠 수 있습니다.


5. 편의시설

  • 화장실 존재 (건물 외부, 남녀 공동)
  • 수저는 음식 나올 때 나옴
  • 물은 가게 문 앞쪽에 존재 (셀프, 녹차)
  • 낮에는 식사, 저녁에는 이자카야

오늘 방문한 식당은모던눌랑 여의도점입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.03.25 (월) 런치

한줄평

비싸지만 맛있고 분위기 좋은 중식당

재방문의사

특별한 날, 혹은 대접해야하는데 중식당을 가야한다면 재방문할듯

별점요약

1. 맛 : 4.5/5
2. 위생 : 5/5
3. 가격 : 2.5/5
4. 분위기 : 5/5
5. 편의시설 : 5/5


1. 맛

(1) 흑임자 유린기 / (2) 어향가지 with 차오판 / (3) 모던눌랑 소고기 볶음 누들

 

메뉴별 맛 별점
 
흑임자 유린기 : 4.5/5 (추천)
어향가지 with 차오판 : 4.5/5 (추천)
모던눌랑 소고기 볶음 누들 : 4/5 (추천하기 애매)
 


흑임자 유린기 (추천)
 
흑임자의 고소하고 특유의 향이 입혀진, 상큼하고 맛있는 한입 사이즈의 유린기입니다.
바삭한 식감, 상큼하고 고소한 맛이 좋았지만 고기의 맛이나 향이 거의 나지 않다보니 요리 느낌이 덜나는 점이 아쉬웠습니다.
 
 
어향가지 with 차오판 (추천)
 
짜지 않으면서 적절한 마라가 들어간 어향가지와 잘 볶여진 차오판의 조합은 매우 좋았습니다.

어향가지를 먹으면 대부분 간이 있는 경우가 많은데, 슴슴하면서 맛있어서 매우 좋았습니다.
 
 
모던눌랑 소고기 볶음 누들 (추천하기 애매)
 
면의 식감이나 맛 자체는 나쁘지 않았습니다.

다만, 동남아에서 먹을법한 팟타이의 맛과 거의 유사하다보니 굳이 중식당에서 먹어야하는 이유는 잘 모르겠습니다.


2. 위생

수저, 접시, 물잔 등의 상태는 깔끔했습니다.

구석구석봐도 거미줄이나 벌레도 안보였습니다.

위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

(좌) 메뉴판 / (우) 영수증

 

모던눌랑 자체가 부티크 차이니즈 다이닝 레스토랑이기에, 양이 많지 않음에도 가격이 꽤 비쌉니다.

 

메뉴 3개 (흑임자 유린기, 어향가지 with 차오판, 모던눌랑 소고기 볶음 누들)해서 9만원 나왔습니다.


4. 분위기

모던눌랑 입구

 

부티크 차이니즈 다이닝 레스토랑이라는 컨셉에 걸맞게, 분위기 자체는 좋습니다.

대접을 해야한다거나, 조금 무게가 있는 자리도 충분히 소화할 수 있는 고급스럽고 좋은 분위기의 식당입니다.


5. 편의시설

  • 네이버로 예약 가능
  • 남녀 화장실 존재 (건물 내부, 남 녀 분리)
  • 접시, 수저 등은 테이블마다 기본 세팅

오늘 방문한 식당은그릴도하 한남입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.03.23 (토) 런치

한줄평

맛있는 후무스, 맛있고 부드러운 양갈비, 그러나 비싼 가격

재방문의사

후무스가 먹고 싶으면 갈 용의는 있으나, 실제로 가기에는 많은 고민을 할 듯

별점요약

1. 맛 : 4.5/5
2. 위생 : 5/5
3. 가격 : 2/5
4. 분위기 : 5/5
5. 편의시설 : 4/5


1. 맛

(좌) 피타빵 whole size, 후무스 프렌즈 세트 / (우) 마리네이드 숙성 생 양갈비 그릴 2인분

 

메뉴별 맛 별점

 

마리네이드 숙성 생 양갈비 그릴 : 4.5/5 (추천)

후무스 프렌즈 세트 : 4.5/5 (추천)

피타빵 : 3/5 (할 수 없이 추천)

 

마리네이드 숙성 생 양갈비 그릴 (추천)

 

부드럽고 양 특유의 냄새가 심하지 않아서 맛있게 먹었습니다.

같이 나온 감자도 시즈닝이 되어있어, 맛있었습니다.

다만, 가격 대비 양 자체가 많지는 않습니다.

 

 

후무스 프렌즈 세트 (추천)

 

후무스를 처음 접해봤는데, 병아리 콩을 갈아서 만든 음식이다 보니 송편에서의 콩고물과 비슷한 맛이 납니다.

다양한 맛의 후무스를 접할 수 있는데, 맛이 안어울리거나 하지는 않았습니다.

다만, 빵에 발라먹기는 잼과 비교하면 꾸덕하고 목이 멕히는 맛입니다.

 

 

피타빵 (할 수 없이 추천)

 

후무스를 발라 먹으려면 할 수 없이 시켜야하는데, 빵 자체의 맛은 특별하지 않았습니다.

공갈빵 같이 속이 비어있는데, 식감이나 맛이 특별하지 않다보니 다소 아쉬웠습니다.

후무스와 먹기에 무난하긴 하지만, 화덕 피자와 같이 좀 더 쫄깃하게 만들거나 폭신한 식감이 있었으면 더 잘 어울리지 않았을까?라는 생각입니다.


2. 위생

수저, 접시, 물잔 등의 상태는 깔끔했습니다.
구석구석봐도 거미줄이나 벌레도 안보였습니다.
위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

 

가게가 자리한 위치 때문인지, 가격이 꽤 비쌉니다.

특히 양갈비의 경우, 맛은 있다만 가격 대비 양이 매우 적습니다.

2인분에 6만원의 퀄리티?까지는 아닌 것 같다고 생각됩니다.

 

메뉴 3개 (마리네이드 양갈비 2인분 + 후무스 프렌즈 세트 + 피타빵 whole size)해서 86,600원 나왔습니다.


4. 분위기

그릴도하 한남 입구

 

테이블 사이 간격도 그리 가깝지 않고, 방문했을 때 사람도 많지 않아서 분위기는 좋았습니다.

조금 대접해야할 때 방문하기 좋습니다.


5. 편의시설

  • 남녀 화장실 존재 (가게 내부, 남 녀 분리)
  • 접시, 수저 등은 테이블마다 기본 세팅
  • 직원이 물을 채워다주는 시스템 - 물이 없으면 직원을 불러야함 (귀찮음)
  • 2층으로 가는 계단이 비좁고 엘레베이터가 없음 - 다리가 불편하면 가기 힘들듯

오늘 방문한 식당은수작카츠 양재점입니다.
내돈내산 리뷰 바로 시작합니다.


방문 날짜

2024.03.16 (토) 런치

한줄평

맛있고 바삭하고 양 많은 돈까스

재방문의사

양재시민의 숲역 근처에서 돈까스를 먹고 싶다면 재방문할듯

별점요약

1. 맛 : 4/5
2. 위생 : 5/5
3. 가격 : 4/5
4. 분위기 : 3/5
5. 편의시설 : 4/5


1. 맛

(좌) 등심 + 새우 카츠, 히야시소바, 수제일식카레 / (우) 등심 카츠 두께

 

메뉴별 맛 별점
등심 + 새우 카츠 : 4.5/5 (추천)
히야시소바 : 2.5/5 (추천 X)

수제일식카레 : 3/5 (카레를 먹고 싶다면 추천)
 
 
등심 + 새우 카츠
 
실한 고기가 있는 바삭한 등심 카츠입니다.

새우 카츠도 실하고 맛있어서, 좋습니다.
 
 
히야시소바

 

일식에서의 소바를 시키게 되면 살얼음 + 강한 소스 맛이 나는 편인데, 히야시소바는 그렇지 않았습니다.

면은 쫄깃하지만 시원하다고 보기엔 애매하며, 소스도 간이 약하고 면과 살짝 따로 노는 느낌이 있었습니다.

그리고 김에서 나오는 약간의 비릿함?이 좀 강하게 느껴져서, 평소에 먹던 소바 맛이 아닌지라 손이 가지 않았습니다.

 

 

수제일식카레

 

고기가 꽤 많이 들은 일본식 카레의 풍미가 나는 수제일식카레였습니다.

다만 간이 좀 강한 편이며, 개인적으로 양파에서 나오는 단맛과 같은 전반적인 감칠맛이 좀 부족하다고 생각됐습니다.


2. 위생

생수 + 종이컵을 사용하며, 수저, 접시 등의 상태는 깔끔했습니다.

구석구석봐도 거미줄이나 벌레도 안보였습니다.

위생은 걱정하지 않아도 될 것 같습니다.


3. 가격

영수증

 

다른 일식 돈까스집과 비교해보면, 돈까스는 비슷하거나 저렴한 편입니다.
양도 많고, 맛도 있다보니, 돈까스는 가격이 괜찮다고 생각합니다.
 
메뉴 3개 (등심 새우 카츠 + 히야시소바 + 수제일식카레)해서 25,500원 나왔습니다.


4. 분위기

 

가게 면적에 비해 테이블이 많다보니, 테이블마다 다닥다닥 붙어있고 가방 등을 놓을 여유 공간이 없습니다.

가격이 괜찮다보니, 혼밥하는 사람들 혹은 가족 단위로 오는 경우가 많았습니다.


5. 편의시설

  • 남녀 화장실 존재 (식당 내 화장실이 아닌 건물 화장실 사용, 남녀 구분은 확인 못함)
  • 생수, 종이컵 제공
  • 수저는 음식 나올때 같이 제공

Paper Info


1. Brief Summary

1.1. Identification

identification overview from paper

 

1. 모델을 adversarial training으로 학습

    adversarial training이 perceptually aligned gradients로 이끈다는 기존 연구가 존재

    따라서, gradient-based interpretation의 utility가 개선되어 interpretable한 모델이 됨

2. 각 class마다 annotation할 important neural features 선택
    각 class마다 가장 많이 activate되는 top-5 feature 선택
    activate된다는 기준 : feature activation x linear classification head weight
3. Neural features에 대한 visualization을 이용하여, 사람이 core feature인지 spurious feature인지 라벨링
    CAM을 이용한 heatmap, feature attack을 이용하여 시각화
    class info, top-5 neural features가 주어졌을 때 core인지 spurious인지 라벨링

 

1.2. Measure

definition of spuriosity from paper

Image with high spuriosity : spurious correlation이 많은 image
Image with low spuriosity : spurious correlation이 없는 image

 

spuriosity : how strongly spurious cues are present in an image
각 class 내의 image마다 spurious feature가 얼마나 activate되는 지를 이용하여 spuriosity 측정

spuriosity rankings examples from paper

 

spuriosity를 이용하여 sorting하면, 각 class마다 spuriosity ranking을 확인할 수 있음

 

spurious gap : acc(top-k highest spuriosity validation images) - acc(top-k lowest spuriosity validation images)

spurious gap을 통해, model의 bias를 측정 가능

models are biased toward spurious features

 

89개의 모든 모델들이 spurious cues가 없을 때 성능이 안좋음 → all models are biased
주목할 점으로, CLIP은 다른 vision models와 다른 경향성을 보임

 

1.3. Mitigation

performance from paper

 

low spuriosity images로 linear layer만 fine-tuning하여 spurious feature에 대한 reliance를 mitigate


2. Conclusions

The author's conclusions

Identification 파트는 Salient ImageNet을 그대로 이용했기에, 사실상 contribution이라고 할만한 점은 노가다했다는 점

(ImageNet-1K의 모든 class에 대해 했다는 점)

 

My Conclusion

Identification, mitigation 파트는 contribution이라고 할만한게 없음

(identification은 Salient ImageNet, mitigation은 last layer re-training)

 

spuriosity를 정의하고, model의 bias를 spurious gap으로 확인한다는 점은 그래도 참고할만할듯

그리고 정리하기 귀찮아서 없지만, spurious feature collision은 그래도 볼만한듯

그럼에도 다양하게 짬뽕 + 분석한 논문인지라, spotlight까지 받을만한 논문인지는 잘 모르겠음...

+ mislabeled data는 low spurious score을 가질 것 같다는 생각도 드는데, 이를 고려하지 않아서 매우 아쉬웠음

 

Rating

Fine

+ Recent posts