![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bPP6AE/btsHBWCdgZy/WWqBz0gmc1O62TJJYTLFGk/img.png)
CVPR 2023. [Paper]Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir AbermanGoogle Research | Boston University25 Aug 2022 AbstractFine-tunning ์ด๋?๊ธฐ์กด์ ํ์ต๋ ๋ชจ๋ธ(Pretrained model)์ ๊ธฐ๋ฐ์ผ๋ก ์ถ๊ฐ์ ์ผ๋ก ์๋ก์ด ๋ฐ์ดํฐ์ ํ์ต์ ํตํด ๋ชจ๋ธ์ ํ๋ผ๋ฏธํฐ๋ฅผ ๋ฏธ์ธ์กฐ์ ํ๋ ๊ฒ์ด๋ค. Latent Diffusion ๋ชจ๋ธ์์ ํ์ต๊ฐ๋ฅํ ํ๋ผ๋ฏธํฐ์ ์์ญ์ ํฌ๊ฒ ํ ์คํธ ์ธ์ฝ๋์ U-net ์์ญ์ด ์์ผ๋ฉฐ, ๋๋ฆผ๋ถ์ค๋ ๋๊ฐ์ง ํ๋ผ๋ฏธํฐ ๋ชจ๋ ํ์ตํ๋ค. ๋ณธ ๋ ผ๋ฌธ์์๋ text-to-image diffusion model์ "๊ฐ์ธํ"๋ฅผ ์ํ ์๋ก์ด ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/v3L7c/btsFjYhIlgE/IRXZwCcq0kjLIaYW14v5N0/img.png)
Martin Arjovsky : https://arxiv.org/abs/1701.07875v3 Wasserstein GAN We introduce a new algorithm named WGAN, an alternative to traditional GAN training. In this new model, we show that we can improve the stability of learning, get rid of problems like mode collapse, and provide meaningful learning curves useful for debuggi arxiv.org 1. Introduction Unsupervised Learning์ ๋ฐ์ดํฐ (x)์ ํ๋ฅ ๋ถํฌ ( P(x))๋ฅผ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/cauUhV/btsEopm2Nav/DrNDaK0jDhtUwXqfYeoRkK/img.png)
Phillip Isola 1. Introduction Image-to-Image Translation์ ์ด๋ฏธ์ง๋ฅผ ์ ๋ ฅ์ผ๋ก ๋ฐ์์ ๋ ๋ค๋ฅธ ์ด๋ฏธ์ง๋ฅผ ์ถ๋ ฅ์ผ๋ก ๋ฐํํ๋ Task๋ฅผ ๋ปํ๋ค. ๋ณธ ๋ ผ๋ฌธ์ Image-to-Image Translation์ ์ ํฉํ cGAN์ ๊ธฐ๋ฐ์ผ๋กํ๋ฉฐ ๋ค์ํ Task์์ ์ข์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ด๋ ํ๋ ์์ํฌ pix2pix๋ฅผ ๋ค๋ฃฌ๋ค. ์๋ ์ธ์ด ๋ฒ์ญ์ด ๊ฐ๋ฅํ ๊ฒ์ฒ๋ผ ์๋ image-to-image ๋ณํ ๋ํ ์ถฉ๋ถํ ํ์ต ๋ฐ์ดํฐ๊ฐ ์ฃผ์ด์ง๋ค๋ฉด ํ ์ฅ๋ฉด์ ํํ์ ๋ค๋ฅธ ์ฅ๋ฉด์ผ๋ก ๋ณํํ๋ ์์ ์ผ๋ก ์ ์ํ ์ ์๋ค. DCGAN๊ณผ ๋ค๋ฅธ์ ์ Generator(G)์ input์ด random vector๊ฐ ์๋๋ผ condition input ๋ผ๋ ์ ์ด๋ค. ๋ณธ ๋ ผ๋ฌธ์์ ์ฐ๋ฆฌ์ ๋ชฉํ๋ ์ด๋ฌํ ๋ชจ๋ ๋ฌธ์ ์ ๋ํ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/mKwzo/btsEb7TXMUo/MX9tgN1XtAVrAiXynBFX61/img.png)
Alec Radford & Luke Metz DCGAN : UNSUPERVISED REPRESENTATION LEARNINGWITH DEEP CONVOLUTIONALGENERATIVE ADVERSARIAL NETWORKS INTRODUCTION GANs have been known to be unstable to train, often resulting in generators that produce nonsensical outputs. CNN์ ํ์ฉํ ๋น์ง๋ํ์ต์ผ๋ก ์ง๋ํ์ต๊ณผ ๋น์ง๋ํ์ต์ ์ฐจ์ด๋ฅผ ์ค์ธ๋ค. CNN์ ํ์ฉํ์ฌ ์์ ์ ์ธ train์ ๊ฐ๋ฅํ๊ฒ ํ์ผ๋ฉฐ ์ด๋ฅผ DCGAN์ด๋ผ๊ณ ํ๋ค. ํ๋ณ๊ธฐ๋ฅผ ์ด๋ฏธ์ง ๋ถ๋ฅ๊ธฐ ์์ ์ผ๋ก ์ฌ์ฉํ์๊ณ , ๋ค๋ฅธ ๋น์ง๋ํ์ต ์๊ณ ๋ฆฌ์ฆ๋ค์ ๊ฒฝ์์ ์ธ ์ฑ๋ฅ์ ๋ณด์ฌ์ค๋ค. DCGAN์ ์ํด..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/cfdKur/btsDrHbb6h9/Xx3VF4L5pE0OBhVXkcTJYk/img.png)
Ian Goodfellow$(.et al)$ Abstract ์ ๋์ ํ๋ก์ธ์ค๋ฅผ ํตํด ์์ฑ๋ชจ๋ธ์ ์ถ์ ํ๋ ์๋ก์ด ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค. ์์ฑ๋ชจ๋ธ G์ ํ๋ณ๋ชจ๋ธ D ๋๊ฐ์ง ๋ชจ๋ธ์ ๋์์ ํ๋ จํ๋ค. GAN? GAN์ ๋ ๊ฐ์ ๋ค๋ฅธ ์ ๊ฒฝ๋ง ๊ฐ์ ์ ๋์ ์ธ ๊ด๊ณ๋ก ๋๋ฆฝ(Adversarial)ํ๋ฉฐ ์๋ก์ ์ฑ๋ฅ์ ์ ์ฐจ ๊ฐ์ ํด ๋๊ฐ๋ ๊ฒ ์์ฑ ๋ชจ๋ธ G : ๋ฐ์ดํฐ์ ๋ถํฌ๋ฅผ ํ์ตํ๋ ๋ชจ๋ธ ํ๋ณ ๋ชจ๋ธ D : ์ด๋ฏธ์ง๋ฅผ ์ค์ (training data) ๋๋ ๊ฐ์ง(generated data)์ธ์ง ๋ถ๋ฅํ๋ ๋ชจ๋ธ Generator๋ ํ๋ จ ๋ฐ์ดํฐ์ ๋ถํฌ๋ฅผ ํ์ตํ์ฌ, ์์์ ๋ ธ์ด์ฆ๋ฅผ ์ ๋ ฅ์ผ๋ก ๋ฐ์ ์ ๊ฒฝ๋ง์ ์ฌ์ฉํ์ฌ ์ด๋ฏธ์ง๋ฅผ ์์ฑํจ. Introduction ๋ฅ๋ฌ๋์ ๊ฐ์ฅ ๋๋๋ฌ์ง ์ฑ๊ณต์ high-dimensional, rich sensor..
ใ ๊ต์ : ์์ธ๋ํ๊ต ์ด์ํ ๊ต์ ใ ํ์ต๋ชฉํ ๋ณธ ๋ชจ๋์ ์ธ๊ณผ์ฑ์ ๋ํด ์ถ๋ก ํ๊ณ ๊ฒฝํ์ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ ์ธ๊ณผ ๊ด๊ณ๋ฅผ ๊ฒฐ์ ํ๋ ๋ฐฉ๋ฒ์ ์ตํ์ผ๋ก์จ ๋ฐ์ดํฐ๋ฅผ ์์ฑํ ํ๋ก์ธ์ค์ ๋ํด ๋ง๋ค์ด์ผ ํ๋ ํ์ ๊ฐ์ ๊ณผ ์ด๋ฌํ ๊ฐ์ ์ด ํฉ๋ฆฌ์ ์ธ์ง ํ๊ฐํ๋ ๋ฐฉ๋ฒ, ๋ง์ง๋ง์ผ๋ก ์ถ์ ๋๋ ์์ ํด์ํ๋ ๋ฐฉ๋ฒ์ ๋ํด ํ์ตํ๊ณ ์ ํฉ๋๋ค. Part 1. ์ธ๊ณผ์ฑ์ ๋ํ ์๊ฐ ๋ฐ ์ธ๊ณผ์ ์ถ๋ก ์ ์ํ ๊ธฐ๋ณธ ๊ฐ๋ - causal discovery : ๋ฐ์ดํฐ๋ก๋ถํฐ ์ธ๊ณผํจ๊ณผ์ ์ธ๊ณผ๊ด๊ณ๋ฅผ ๊ณ์ฐ - ๋ฐ์ดํฐ๋ ์๊ด์ฑ๋ง ๊ฐ์ง๊ณ ์๋๋ฐ, ์ฐ๋ฆฌ๊ฐ ์๊ณ ์ ํ๋ ๊ฒ์ ์ธ๊ณผํจ๊ณผ์ด๋ค. - ์ด๋ฒ ๊ฐ์๋ ์ธ๊ณผํจ๊ณผ๋ฅผ ๊ณ์ฐํ๊ธฐ ์ํ ๊ธฐ๋ณธ์ ํ๋ ์์ํฌ, ์ธ๊ณผํจ๊ณผ๋ฅผ ๊ณ์ฐํ๋ ๋ฐฉ๋ฒ๋ก , ์ธ๊ณผ์ ๊ด์ ์ผ๋ก ๋ฌธ์ ๋ฅผ ๋ฐ๋ผ๋ณด๋ ๋ฐฉ๋ฒ์ ๋ํด ์ ์ ์๋ค. - ๋ฒ ์ด์ง์ ๋คํธ์ํฌ์ ๋ํ ..
ใ ๊ต์ : ์ดํ์ฌ์๋ํ๊ต ๊ฐ์ ์ ๊ต์ ใ ํ์ต๋ชฉํ Machine Learning์ ํ ๋ถ๋ฅ์ธ ์ง๋ํ์ต(Supervised Learning)์ ๋ํ ๊ธฐ๋ณธ ๊ฐ๋ ๊ณผ regression/classification์ ๋ชฉ์ ๋ฐ ์ฐจ์ด์ ์ ๋ํด ์ดํดํ๊ณ , ๋ค์ํ ๋ชจ๋ธ ๋ฐ ๋ฐฉ๋ฒ๋ก (linear and nonlinear regression, classification, ensemble methods, kernel methods ๋ฑ)์ ํตํด ์ธ์ ์ด๋ค ๋ชจ๋ธ์ ์ฌ์ฉํด์ผ ํ๋์ง, ์ ์ฌ์ฉํ๋์ง, ๋ชจ๋ธ ์ฑ๋ฅ์ ํฅ์์ํค๋ ๋ฐฉ๋ฒ์ ํ์ตํ๊ฒ ๋ฉ๋๋ค. Part 1. SL Foundation - ์ง๋ํ์ต : ๋ถ๋ฅ / ํ๊ท ๊ฐ ์์ - error๋ฅผ ๊ณ์ฐํด์ ์์คํจ์ loss function cost function์ผ๋ก ๋ถ๋ฆ - square..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/ueipd/btsDdEFxedT/LFwpaXFJIQmOntVaKUEiy1/img.png)
ใ ๊ต์ : ์์ธ๋ํ๊ต ๊น๊ฑดํฌ ใ ํ์ต๋ชฉํ : ๋ณธ ๋ชจ๋์ Machine Learning์ ๊ธฐ๋ณธ ๊ฐ๋ ์ ๋ํ ํ์ต ๊ณผ์ ์ ๋๋ค. ML์ด๋ ๋ฌด์์ธ์ง, Overfitting๊ณผ Underfitting์ ๊ฐ๋ , ์ต๊ทผ ๋ง์ ๊ด์ฌ์ ๋ฐ๊ณ ์๋ ์ด๊ฑฐ๋ ์ธ์ด๋ชจ๋ธ์ ๋ํด ํ์ตํ๊ฒ ๋ฉ๋๋ค. Part 1. Introduction to Machine Learning - ๊ธฐ๊ณํ์ต : ์ธ๊ณต์ง๋ฅ์ ํ ๋ถ์ผ (์ธ๊ณต์ง๋ฅ-๊ธฐ๊ณํ์ต-๋ฅ๋ฌ๋: ๊ธฐ๊ณํ์ต ์ค ์ ๊ฒฝ๋ง ๋ ์ด์ด๊ฐ ๋ง์ ๋ถ์ผ) - ํ๋ฒํธ ์ฌ์ด๋จผ : ์์ฌ๊ฒฐ์ ์ ๊ด๋ จ๋ ์ฐ๊ตฌ / ์์ ์ฌ๋ฌด์ : Game Tree ์ํ-๋ฒ ํ prunning, ์ฒด์คํ๋ก๊ทธ๋จ - Tom Mitchell's definition : Task(์ด๋ค ์์ ), Performance Measure(์ฑ๋ฅ ์งํ), Experie..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/b7wNne/btsDhykiGKA/bLAfg5INKOGPpt9bNVFyL1/img.png)
ใ ๊ต์ : KAIST ์ ์ง์ฐ ๊ต์ ใ ํ์ต๋ชฉํ ๋ณธ ๋ชจ๋์ AI๊ธฐ์ ์ ์ดํดํ๊ธฐ ์ํ ๋ฐํ์ด ๋๋ ์ํ์ ์ง์์ ํ์ตํ๊ธฐ ์ํ ๊ณผ์ ์ ๋๋ค. ์ด์ ๊ดํ์ฌ ํ๋ ฌ ๋ถํด, ๋ธ๋ก ์ต์ ํ, ์ฃผ์ฑ๋ถ ๋ถ์ ๋ฑ ๋ฐ์ดํฐ๋ฅผ ๋ค๋ฃจ๊ธฐ ์ํ ๋ฐฉ๋ฒ์ ํ์ตํ๊ฒ ๋ฉ๋๋ค. ๊ณต๋ถ๋ด์ฉ: Part 1. Matrix Decomposition - ํ๋ ฌ ๊ด๊ณ: det(AB) = det(A)det(B)๊ณฑ์ / Trace / Eigenvalue&Eigenvector / Diagonal Part 2. Convex Optimization Part 3. PCA ์ฃผ์ฑ๋ถ๋ถ์ - ๋ฐ์ดํฐ ์ถ์ ์๊ณ ๋ฆฌ์ฆ
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/dJH61N/btsC86pqeSO/yltlLu07CjPd7dDxCCoWik/img.png)
๊ณต๋ถ๋ด์ฉ : Part 1. ๋ฐ์ดํฐ ๋ถ์๊ณผ AIํ์ต์์ ์ ์ํ ์ Part 2. AI Ethics - ์ผ๋ณธ ํ์นด์ด๋ ๋ํ์ ์ธ๊ณต์ง๋ฅ์ด ์ด ์์ค์ด ์์ ํต๊ณผ - ์ธ๊ณต์ง๋ฅ ๋ฒ์ธ๊ฒฉ์ ์ฅ๋จ์ (๊ฐ๋จํ ์ฑ ์์ ๋ฌธ์ ๊ฐ ์์ฝ๊ฒ ํด๊ฒฐ vs ๋ฒ์ ์ฒ๋ฒ์ ๋ํผ๋ก ์ ์ฉ) - Moral Machine experiment : ํธ๋กค๋ฆฌ ๋ฌธ์ - ๋ก๋ด์ ํ๋ํ์ง ์์ ๊ถ๋ฆฌ Part 3. ์ธ๊ณ์ ์ธ ๋ฐ์ดํฐ ๊ณผํ์๊ฐ ๋๋ ๋ฐฉ๋ฒ - ๊ฐ์ง ๋ด์ค ํ์ง ๊ธฐ์ - ์์ฑ์์ ๋ฅ๋ฌ๋ ๋ถ์ -> ๋น๊ณค์ง์ญ ์์ธก ๋ฐ ๋ น์ง ๊ณ์ฐ(ํ๋ณต์ง์ ์ฐ๊ตฌ) ๋ฐฐ์ด์ : ์ธ๊ณต์ง๋ฅ ๊ฐ๋ฐ์๋ก์ ์ค๋ฆฌ๋ฌธ์ ์ ๋ํด ๋ ์๊ฐ์ ๋ง์ด ํ๊ฒ๋์๋ค.
- Total
- Today
- Yesterday
- dreambooth
- lgaimers
- ์ฝํ
- ์ฝ๋ฉ๊ณต๋ถ
- DALLE
- CLOVAX
- ๊ธฐ์ ์ปจํผ๋ฐ์ค
- ์คํ ์ด๋ธ๋ํจ์
- WGAN
- ๋ ผ๋ฌธ๋ฆฌ๋ทฐ
- C์ธ์ด
- SKTECHSUMMIT
- ๊ตฌ๊ธ์ฝ๋ฉ
- ๋๋ฆผ๋ถ์ค
- ํ์ด์ฌ
- ํ ํฌ์๋ฐ
- ํ๋ก๊ทธ๋๋จธ์ค
- gan
- ํ์ด์ฌ์ฝํ
- ์ฝํ ์ค๋น
- AIRUSH
- ๋ ผ๋ฌธ์ฝ๊ธฐ
- Aimers
- HyperCLOVA
- AIRUSH2023
- SQL
- AI์ปจํผ๋ฐ์ค
- ์ฝ๋ฉ์๋ฌ
- MYSQL
- StableDiffusion
์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |