引论
Graph neural network(GNN)图神经网络
Convolutional neural network (CNN)卷积神经网络 :关键特点【局部连接、共享权重(开销更低)、多层结构(实现层次化模式)】
数学和图论基础
线性代数
基本概念
范数:衡量向量的长度
一范数-曼哈顿范数、二范数-欧式范数
∥x∥p:=p∣x1∣p+⋯+∣xn∣p,p≥1∥x∥1=∣x1∣+⋯+∣xn∣∥x∥2=∣x1∣2+⋯+∣xn∣2=xHx∥x∥∞=max1≤i≤n∣xi∣
阿达马积:
对于矩阵AϵRm×n和BϵRm×n,阿达马积CϵRm×n为:
CϵRm×n=AijBij
矩阵维度不一致
x⋅yx⋅yx⋅y=[x1⋯xn][y1⋯yn]=[x1y1⋯xnyn]=[x1⋯xn]y1⋯ym=x1y1⋯x1ym⋯⋯⋯xny1⋯xnym=x11⋯xm1⋯⋯⋯x1n⋯xmny11⋯ym1⋯⋯⋯y1n⋯xn=x11y11⋯xm1ym1⋯⋯x1ny1n⋯xmnynn⋯
参考博客:https://blog.csdn.net/rosefun96/article/details/104002386
特征分解
A[v1v2⋯vn]=[v1v2⋯vn]λ1λ2⋱λn
A=i=1∑nλiviviT
特征分解只能用于特定的矩阵
奇异值分解
概率论
基本概念和公式
条件概率
贝叶斯公式
链式法则(多变量条件概率)
期望:对于某个函数在一个特定概率分布P(x)下的平均值
E[f(x)]=x∑P(x)f(x)
衡量f(x)在期望周围散布情况:方差
Var(f(x))=E[f(x)2]−E[f(x)2]2
方差开根号称为“标准差”
协方差:描述两个变量共同变化的关联程度
Var(f(x))=E[(f(x)−E[f(x)])(g(y)−E[g(y)])]
概率分布
正态分布:
f(x)=2πσ1exp(−2σ2(x−μ)2)
二项分布:
P{X=k}=(kn)pk(1−p)n−k
拉普拉斯分布:
f(x)=2b1exp(−b∣x−μ∣)
图论
G=(V,E)
邻接矩阵
Aij={10((vi,vj)∈E and i=j)( otherwise )
度矩阵
Dii=d(vi)
拉普拉斯矩阵
L=D−A
Lij=⎩⎨⎧d(vi)−10(i=j)((vi,vj)∈E and i=j)( otherwise )
对称归一化拉普拉斯矩阵
Lsym=D−21LD−21=I−D−21AD−21
矩阵元素:
Lijsym=⎩⎨⎧1−d(vi)d(vj)10(i=j 且 d(vi)=0)((vi,vj)∈E and i=j)( otherwise )
随机游走归一化拉普拉斯矩阵
Lrw=D−1L=I−D−1A
矩阵元素:
LijTW=⎩⎨⎧1−d(vi)10(i=j and d(vi)=0)((vi,vj)∈E and i=j)( otherwise )
关联矩阵:M∈Rm×n
对于有向图
Mij=⎩⎨⎧1−10(∃k s.t ej=(vi,vk))(∃k s.t ej=(vk,vi))( otherwise )
无向图
Mij={10(∃k s.t ej=(vi,vk))( otherwise )