[그래프이론(Grpah Theory)] Prove that the Petersen graph has no cycle of length 7.

그래프이론(Grpah Theory)문제를 풀어보겠습니다. 오늘 마주할 문제는 아래에 나와있습니다. Prove that the Petersen graph has no cycle of length 7. Petersen graph 에는 길이가 7짜리 cycle이 존재하지 않는다는 얘기입니다. 오늘은 Petersen graph 에는 길이가 7짜리 cycle이 존재하지 않다는 사실을 보이겠습니다. 도움이 될만한 글: [그래프이론(Graph Theory) 문제풀이] Find all simple graphs with n vertices having no isolated … Read more

[그래프이론(Graph Theory) 문제풀이] Find all simple graphs with n vertices having no isolated vertex and no induced subgraph with exactly two edges.

그래프이론(Graph Theory)문제풀이 해보겠습니다. 오늘 풀어볼 문제는 아래와 같습니다. Find all simple graphs with n vertices having no isolated vertex and no induced subgraph with exactly two edges. isolated vertex가 없고 두개의 edge만으로 구성된 induced subgraph 가 없는 그래프는 어떤 그래프일까요? 이번 글에서는 그 그래프를 찾아보겠습니다. 도움이 될만한 글 [그래프이론(Graph Theory) 문제풀이]Let P and Q be … Read more

[그래프이론(Graph Theory) 문제풀이]Let P and Q be be paths of maximum length in a connected graph G. Prove that P and Q have a common vertex.

이번에도 그래프이론(Graph Theory) 문제풀이를 해보겠습니다. 이번에도 재밌는 문제를 준비하였습니다. 이번에 준비한 문제는 아래와 같습니다. Let P and Q be be paths of maximum length in a connected graph G. Prove that P and Q have a common vertex. connected graph 에서 가장 긴 길이를 갖는 path P와 Q는 공통된 점을 갖는다라는 말인데요. 같은 점 하나를 … Read more

[그래프이론 문제풀이] Let u and v be adjacent vertices in a simple graph G. Prove that uv belongs to at least d(u) + d(v) − n(G) triangles in G.

그래프이론 문제풀이를 하려고 한다. 내가 풀려고 하는 문제는 아래와 같다. 그래프이론 문제내용 Let u and v be adjacent vertices in a simple graph G. Prove that uv belongs to at least d(u) + d(v) − n(G) triangles in G. Simple graph 가 있고 그 중에 하나의 edge uv가 있다고 하자. edge는 삼각형의 구성요소 일 수도 … Read more

Kolmogorov’s Backward Equation 설명

이번 글에서는 확률미분방정식의 topic중 하나인 Kolmogorov’s Backward Equation 에 대해 알아보겠습니다. Kolmogorov’s Backward Equation 은 어떤 Diffusion process에 대한 Expectation 을 편미분 방정식 꼴로 나타내는 방식입니다. 역으로 Kolmogorov’s Backward Equation 을 만족하는 함수가 있다면 이 함수를 Diffusion process에 대해 정의된 Expectation으로써 정의 가능합니다. 이제 글을 시작해보겠습니다. Kolmogorov’s Backward Equation 에 대해 알아보자 Kolmogorov’s Backward Equation … Read more

Conditioned Diffusion Process (조건화된 확산 과정)

Conditioned Diffusion Process 에 대해 알아보려고 합니다. Conditioned Diffusion Process 는 조건화된 확산 과정 정도로 해석 할 수 있습니다. 조건화된이라는 말에서 알 수 있듯이 어떤 조건이 주어졌을 때 Diffusion Process 를 표현하는 방법이라고 볼 수 있습니다. 이 글에서는 Conditioned Diffusion Process (조건화된 확산 과정)이 무엇인지 알아보겠습니다. Conditioned Diffusion Process (조건화된 확산 과정)에 대해 알아보기 앞서 … Read more

[신호처리] Cepstrum(켑스트럼)에 대한 설명, 사용 이유

신호처리에서 많이 사용되는 Cepstrum(켑스트럼)에 대해 알아보겠습니다. 이름자체는 특이하죠 켑스트럼? 영어로는 Cepstrum 이라고 하는데요. 이번글에서 켑스트럼(Cepstrum)에 대해 알아볼테니 여러분들 글 잘 봐주시고 이해해 가셨으면 좋겠습니다. 자 그러면 이제 켑스트럼 (Cepstrum)에 대하여 알아보겠습니다. Cepstrum(켑스트럼)에 대해 알아보자 켑스트럼 (Cepstrum)에 대해 알아보기전에… 이미 Cepstrum에 대한 정보는 검색하면 많이 나옵니다. Cepstrum 에 대한 영상을 준비했는데요. 이 영상을 보고 이해가 되신다면 … Read more

[미분적분학] ln(1-x) 의 테일러 급수(Taylor Series) 전개 방법 설명

함수 ln(1-x) 의 테일러 급수 (Taylor Series) 전개에 대해 알아보겠습니다. ln(1-x) 테일러 급수 전개는 생각보다 많이 만나게 되더라고요. 어떤 것을 증명하거나 유도하거나 분석할 때 자주 쓰이는 series같으니까요. 여러분들도 한번 쭉 보고 따라 와주세요. 방법 자체는 쉬우니까 여러분들도 할 수 있을 것이라 믿습니다. 잔소리가 길었네요. ln(1-x) 테일러 급수 전개 시작해봅시다. ln(1-x) 테일러 급수 (Taylor Series)전개 방법에 … Read more

[딥러닝] Knowledge Distillation (지식전이) 설명

Knowledge DIstillation (지식전이)에 대해서 알아보겠습니다. 지식전이(Knowledge Distillation) 모델은 말그대로 지식을 전이 하는 방법입니다. 이미 학습된 모델의 지식을 다른 모델로 전이 시키는 방법이라고 보면 되겠습니다. 이번 글에서는 Knowledge Distillation와 이것을 할 수 있는 teacher student learning framework에 대해 알아보도록 하겠습니다. Knowledge Distillation (지식전이)에 대해 알아보자 지식전이 (Knowledge Distillation)에 대하여 알아보겠습니다. 지식전이란 앞에서 말씀 드렸듯이 이미 학습 … Read more

[정보이론] KL-divergence, Kullback-Leibler divergence, KL 발산 설명

KL-divergence, Kullback-Leibler divergence, KL 발산에 대해 알아보겠습니다. KL-divergence 는 정보이론에서 중요한 개념입니다. 그리고 다른 분야에서도 많이 사용되는 개념이지요. 요즘엔 딥러닝에서 많이 사용되는 것 같은데요. 이번 글에서는 KL-divergence, Kullback-Leibler divergence, KL 발산 설명에 대해 알아보도록 하겠습니다. 잘 따라올 준비 되셨나요?! 가봅시다 KL-divergence, Kullback-Leibler divergence, KL 발산 설명해보겠습니다. KL-divergence에 대해 설명 드리도록 하겠습니다. KL 발산에 대해 알기 … Read more