An Unsupervised learning model for deformable medical image registration¶ 1. Introduction¶1.1 deformable registration과 문제점¶ deformable registration fundamental task in a variety of medical imaging studies topic of active research for decades N차원 영상들의 pair에 대해서 dense하고 non-linear한 일치(correpondance)가 이루어짐 voxel: pixel의 3차원 버전 대부분의 registraion(정합) 방법들은 비슷한 외형으로 voxel이 정렬된(align) 각 volume pair에 대해 o..
변수와 문자열에 대한 이해 부족¶ 프로그래밍을 입문할 때 아래와 같이 문자열과 변수가 같은 개념이라고 무의식적으로 실수를 하곤한다.¶문제: 입력을 받고 A이면 4점 B이면 3점을 출력하라¶ In [2]: A=4 B=3 score = input() score = int(score) print(score) A --------------------------------------------------------------------------- ValueError Traceback (most recent call last) in () 2 B=3 3 score = input() ----> 4 score = int(score) 5 6 print(score) ValueError: invalid literal for..
T-sne Visualizing data using t-SNE¶T-SNE를 사용한 데이터 차원 축소 시각화¶ T-SNE 를 본격적으로 다루기 전에 SNE에 대해서 설명합니다.¶ 1. Introduction¶ 1-1 높은 차원의 데이터시각화¶높은 차원의 데이터를 시각화 하는 것은 여러 도메인에서 매우 중요한 문제이며 다양한 차원의 데이터를 다룹니다. 예를 들면 아래와 같은 다양한 경우가 있을 수 있습니다. 의료: breast cancer와 관련 있는 세포핵은 약 30개의 변수 데이터로 표현됨 이미지: 이미지를 표현하기 위해서 각 픽셀마다의 벡터(W*H) 로 표현됨 텍스트: Document를 표현하기 위해서 Word counting 방법을 통해 수만개의 변수로 표현됨 높은 차원의 데이터 시각화를 위해서 많은..
Untitled6 Ambient GAN¶ 1 Introduction¶1-1생성모델¶ 생성 모델은 대규모 데이터 세트의 구조를 간결하게 나타낼 수있는 강력한 도구 암시 적 생성 모델은 확률 분포로부터 샘플을 생성하기위한 확률 과정만을 지정하는 메커니즘 확률 분포에 대한 명시적 parameterization 필요 없음 명시적 생성 모델 vs 암시적 생성 모델 명시적 모델 $p(x)->probability,\ x:\ sample$ x가 나올 확률을 계산 해줌 암시적 모델 $f(z) -> x,\ x:\ sample,\ z:\ noise$ 랜덤 input z에 대해 x를 생성 1-2 GAN¶ GAN: 암시적 모델에서 뛰어난 성능 보여줌 geneartor: low-dimensional input -> high-di..
Untitled8 Progressive Growing GAN1. Introduction¶1-1 생성 모델의 종류¶ 생성모델은 다양한 활용 예시를 가지고 있음 음성합성 image to imgae translation image inpainting 요새 많이 쓰이는 3가지 모델 (각자 장점, 단점 있음) GAN 장점 sharp images 단점 작은 레졸류션에서만 가능 limited variation 학습 불안정 despite recent progress VAE 장점 VAEs are easy to train 단점 요즘 연구가 보완하긴 했지만 흐릿한 결과 autoregressive model 장점 sharp image 단점 slow to evaluate latent representation 없음 direct..
Self-attention-GAN Self-attention GAN¶ 1. Introduction¶1.1 GAN 소개 및 단점¶ GAN은 성공적이였으나 일부 클래스에 대해 문제점이 있음 GAN은 텍스처 위주 클래스(바다, 하늘 등)는 잘 생성 그러나 geometry가 중요한 클래스 (동물 등) 는 한계가 있음 geometric or structural patterns 표현은 잘 못함 생성할 때 동물의 texture만은 실제같음 한계에 대한 이유 GAN에서는 이미지의 다양한 위치에 다한 dependency를 모델링하기 위해서 convolution에 많이 의지함 convolution의 receptive field의 범위는 local로 제한됨. 따라서 거리가 먼 region 사이의 dependency 모델링은..
generaliztion, training error, test error 머신러닝의 기본용어인 generaliztion, test error, training error 에 대해서 소개하려고 합니다.1.generalization머신러닝의 목표는 학습데이터에 대해 잘 작동하는 것이 아닌 새로운, 보지 못 했던 데이터에 대해 잘 작동하는 것입니다. 관측하지 못한 데이터(unobserved inputs)에 대해 잘 작동하는 능력을 “generalization”이라고 합니다.2.error학습데이터에서 측정한 error를 우리는 training error라고 합니다. 관측하지 못한 새로운 input에 대한 error의 기댓값(expectation)을 우리는 generaliztion error=test error..
- Total
- Today
- Yesterday
- 한글
- high dimension
- GAN
- 데이터 시각화
- 요약
- self attention gan
- attention gan
- 머신러닝
- Ambient GAN
- stochastic neighborhood embedding
- 한국어
- 고차원
- Deep Learning
- progressive
- batch normalization
- 정리
- No Free Lunch
- t-SNE
- self attention
- internal covariate shift
- self-attention
- 배치 정규화
- 설명
- progressive growing gan
- Ambient
- growing
- PGGAN
- regularization
- 배치노말라이제이션
- SNE
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |