图卷积神经网络GCN原理+图结构学习+GAT+VGAE

25 篇文章 11 订阅
订阅专栏

https://baijiahao.baidu.com/s?id=1678519457206249337&wfr=spider&for=pc
GCN是一种卷积神经网络,它可以直接在图上工作,并利用图的结构信息。
GCN的基本思路:对于每个节点,我们从它的所有邻居节点处获取其特征信息,当然也包括它自身的特征。假设我们使用average()函数。我们将对所有的节点进行同样的操作。最后,我们将这些计算得到的平均值输入到神经网络中。
在这里插入图片描述
GCN的主要思想。我们以绿色节点为例。首先,我们取其所有邻居节点的平均值,包括自身节点。然后,将平均值通过神经网络。请注意,在GCN中,我们仅仅使用一个全连接层。在这个例子中,我们得到2维向量作为输出(全连接层的2个节点)。
在实际操作中,我们可以使用比average函数更复杂的聚合函数。我们还可以将更多的层叠加在一起,以获得更深的GCN。其中每一层的输出会被视为下一层的输入。这一层从邻居获得的信息也会传播到下一层,可想而知,当层数过多的时候,最后一层聚合了基本上全部点的信息,这是不好的。
在这里插入图片描述
2层GCN的例子:第一层的输出是第二层的输入。同样,注意GCN中的神经网络仅仅是一个全连接层(图片来自[2])。

数学原理
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
关于交叉熵的解释详见:https://wenku.baidu.com/view/81d0aef2900ef12d2af90242a8956bec0975a50e.html
简单来说就是,对于交叉熵损失函数,得到的预测值Z和标签Y越像,L就越小。
在这里插入图片描述

下面是更加详细直观的解释:

从图G中,我们有一个邻接矩阵A和一个度矩阵D。同时我们也有节点的特征矩阵X。
在这里插入图片描述
这里的邻接矩阵通常是通过节点之间的地理距离或者特征相似性计算出来的,或者通过随机初始化node embedding,然后经过正则化或者图传播后的损失函数反向传播自学习得到的。详见以下两篇博客的介绍:
https://nakaizura.blog.csdn.net/article/details/120995371
https://blog.csdn.net/qq_39388410/article/details/120997414

那么我们怎样才能从邻居节点处得到每一个节点的特征值呢?解决方法就在于A和X的相乘。

看看邻接矩阵的第一行,我们看到节点A与节点E之间有连接,得到的矩阵第一行就是与A相连接的E节点的特征向量(如下图)。同理,得到的矩阵的第二行是D和E的特征向量之和,通过这个方法,我们可以得到所有邻居节点的向量之和。

在这里插入图片描述
计算 "和向量矩阵 "AX的第一行。

这里还有一些需要改进的地方。
我们忽略了节点本身的特征。例如,计算得到的矩阵的第一行也应该包含节点A的特征。
我们不需要使用sum()函数,而是需要取平均值,甚至更好的邻居节点特征向量的加权平均值。那我们为什么不使用sum()函数呢?原因是在使用sum()函数时,度大的节点很可能会生成的大的v向量,而度低的节点往往会得到小的聚集向量,这可能会在以后造成梯度爆炸或梯度消失(例如,使用sigmoid时)。此外,神经网络似乎对输入数据的规模很敏感。因此,我们需要对这些向量进行归一化,以摆脱可能出现的问题。
在问题(1)中,我们可以通过在A中增加一个单位矩阵I来解决,得到一个新的邻接矩阵。

在这里插入图片描述
取lambda=1(使得节点本身的特征和邻居一样重要),我们就有=A+I,注意,我们可以把lambda当做一个可训练的参数,但现在只要把lambda赋值为1就可以了,即使在论文中,lambda也只是简单的赋值为1。
在这里插入图片描述
通过给每个节点增加一个自循环,我们得到新的邻接矩阵

对于问题(2): 对于矩阵缩放,我们通常将矩阵乘以对角线矩阵。在当前的情况下,我们要取聚合特征的平均值,或者从数学角度上说,要根据节点度数对聚合向量矩阵X进行缩放。直觉告诉我们这里用来缩放的对角矩阵是和度矩阵D有关的东西(为什么是D,而不是D?因为我们考虑的是新邻接矩阵 的度矩阵D,而不再是A了)。

现在的问题变成了我们要如何对和向量进行缩放/归一化?换句话说:

我们如何将邻居的信息传递给特定节点?我们从我们的老朋友average开始。在这种情况下,D的逆矩阵(即,D^{-1})就会用起作用。基本上,D的逆矩阵中的每个元素都是对角矩阵D中相应项的倒数。
在这里插入图片描述
例如,节点A的度数为2,所以我们将节点A的聚合向量乘以1/2,而节点E的度数为5,我们应该将E的聚合向量乘以1/5,以此类推。

因此,通过D取反和X的乘法,我们可以取所有邻居节点的特征向量(包括自身节点)的平均值。

在这里插入图片描述
到目前为止一切都很好。但是你可能会问加权平均()怎么样?直觉上,如果我们对高低度的节点区别对待,应该会更好。
在这里插入图片描述
但我们只是按行缩放,但忽略了对应的列(虚线框)。
在这里插入图片描述
为列增加一个新的缩放器

新的缩放方法给我们提供了 “加权 “的平均值。我们在这里做的是给低度的节点加更多的权重,以减少高度节点的影响。这个加权平均的想法是,我们假设低度节点会对邻居节点产生更大的影响,而高度节点则会产生较低的影响,因为它们的影响力分散在太多的邻居节点上。
在这里插入图片描述
在节点B处聚合邻接节点特征时,我们为节点B本身分配最大的权重(度数为3),为节点E分配最小的权重(度数为5)。
在这里插入图片描述
因为我们归一化了两次,所以将”-1 “改为”-1/2”
在这里插入图片描述
例如,我们有一个多分类问题,有10个类,F 被设置为10。在第2层有了10个维度的向量后,我们将这些向量通过一个softmax函数进行预测。

Loss函数的计算方法很简单,就是通过对所有有标签的例子的交叉熵误差来计算,其中Y_{l}是有标签的节点的集合。
在这里插入图片描述

**层数是指节点特征能够传输的最远距离。**例如,在1层的GCN中,每个节点只能从其邻居那里获得信息。每个节点收集信息的过程是独立进行的,对所有节点来说都是在同一时间进行的。

当在第一层的基础上再叠加一层时,我们重复收集信息的过程,但这一次,邻居节点已经有了自己的邻居的信息(来自上一步)。这使得层数成为每个节点可以走的最大跳步。所以,这取决于我们认为一个节点应该从网络中获取多远的信息,我们可以为#layers设置一个合适的数字。但同样,在图中,通常我们不希望走得太远。设置为6-7跳,我们就几乎可以得到整个图,但是这就使得聚合的意义不大。
在这里插入图片描述
在论文中,作者还分别对浅层和深层的GCN进行了一些实验。在下图中,我们可以看到,使用2层或3层的模型可以得到最好的结果。此外,对于深层的GCN(超过7层),反而往往得到不好的性能(虚线蓝色)。一种解决方案是借助隐藏层之间的残余连接(紫色线)。

GNN 模型可以分为频谱域 (spectral domain) 和空间域 (spatial domain) 两大类:spectral 的方法通常利用了拉普拉斯矩阵,借助图谱的方式进行卷积操作;spatial 的方法通常使用更直接的方式聚合邻居节点的信息。以上是基于频谱域的。以下是空间域的,其实就是通过直接累加节点的邻域信息来实现图的卷积。
http://www.51blog.com/?p=11720
在这里插入图片描述

各种图 https://baijiahao.baidu.com/s?id=1686742016283743917&wfr=spider&for=pc
在这里插入图片描述
损失函数
有监督下的:直接用交叉熵之类的损失函数
无监督下的:基于Random walk, graph factorization之类的
https://zhuanlan.zhihu.com/p/150596886
https://blog.csdn.net/zandaoguang/article/details/111940065
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
http://snap.stanford.edu/proj/embeddings-www/files/nrltutorial-part1-embeddings.pdf
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
GNN如何训练模型得到好的node embedding?
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

GAT
https://baijiahao.baidu.com/s?id=1671028964544884749&wfr=spider&for=pc
图神经网络 GNN 把深度学习应用到图结构 (Graph) 中,其中的图卷积网络 GCN 可以在 Graph 上进行卷积操作。但是 GCN 存在一些缺陷:**依赖拉普拉斯矩阵,不能直接用于有向图;模型训练依赖于整个图结构,不能用于动态图;卷积的时候没办法为邻居节点分配不同的权重。**因此 2018 年图注意力网络 GAT (Graph Attention Network) 被提出,解决 GCN 存在的问题。

GCN 假设图是无向的,因为利用了对称的拉普拉斯矩阵 (只有邻接矩阵 A 是对称的,拉普拉斯矩阵才可以正交分解),不能直接用于有向图。GCN 的作者为了处理有向图,需要对 Graph 结构进行调整,要把有向边划分成两个节点放入 Graph 中。例如 e1、e2 为两个节点,r 为 e1,e2 的有向关系,则需要把 r 划分为两个关系节点 r1 和 r2 放入图中。连接 (e1, r1)、(e2, r2)。

GCN 不能处理动态图,GCN 在训练时依赖于具体的图结构,测试的时候也要在相同的图上进行。因此只能处理 transductive 任务,不能处理 inductive 任务。transductive 指训练和测试的时候基于相同的图结构,例如在一个社交网络上,知道一部分人的类别,预测另一部分人的类别。inductive 指训练和测试使用不同的图结构,例如在一个社交网络上训练,在另一个社交网络上预测。

GCN 不能为每个邻居分配不同的权重,GCN 在卷积时对所有邻居节点均一视同仁,不能根据节点重要性分配不同的权重。
2018 年图注意力网络 GAT 被提出,用于解决 GCN 的上述问题,论文是《GRAPH ATTENTION NETWORKS》。**GAT 采用了 Attention 机制,**可以为不同节点分配不同权重,训练时依赖于成对的相邻节点,而不依赖具体的网络结构,可以用于 inductive 任务。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

VGAE
https://blog.csdn.net/zz1049694353/article/details/118968296
自编码器图自编码器, 一种自监督的学习框架. 通过编码器学习网络节点的低维表示, 然后通过解码器重构图数据.
在这里插入图片描述
在这里插入图片描述
http://www.51blog.com/?p=9363

理解了变分自编码器后,再来理解变分图自编码器就很容易了。如图5所示,输入图的邻接矩阵 A 和节点的特征矩阵 X ,通过编码器(图卷积网络)学习节点低维向量表示的均值 μ 和方差 σ ,然后用解码器(链路预测)生成图。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

图生成网络GGN

图生成网络, 从数据中获取图的经验分布, 然后根据经验分布来生成全新图结构的网络.

特定领域有很多图网络模型, 比如用于分子图生成的SMILES.

近来提出了一些统一的生成方法, 其中有一部分将图生成看做节点和边的交替生成的过程, 另一部分采用GAN的方案进行训练.

神经网络实战(7)——卷积网络(Graph Convolutional Network, GCN)详解与实现
盼小辉丶的博客
04-03 4267
卷积网络 (Graph Convolutional Network, GCN) 架构由 Kipf 和 Welling 于 2017 年提出,其理念是创建一种适用于的高效卷积神经网络。在本节中,我们将讨论 Vanilla GNN 架构的局限性,并详细介绍 GCN 的工作原理,通过使用 PyTorch Geometric 在 Cora 和 Facebook Page-Page 数据集上实现 GCN 来验证其性能。
基于tensorflow2.0实现卷积神经网络GCN.zip
08-22
卷积神经网络(GCN)理解与 tensorflow2.0 代码实现 (Graph),一般用 G = ( V , E ) G=(V,E)G=(V,E) 表示,这里的V VV是中节点的集合,E EE 为边的集合,节点的个数用N NN表示。在一个中,有三个比较重要的...
GCN网路详解
perfectzxiny的博客
09-26 1823
MY GCN 1 邻接矩阵 [外链片转存失败,源站可能有防盗链机制,建议将片保存下来直接上传(img-Rz065t4x-1601123060479)(https://math.jianshu.com/math?formula=A)]是的邻接矩阵 2 特征矩阵 设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是矩阵A的一个特征值(characteristic value)或本征值(eigenvalue)。 3 度矩阵 [外链片转存失败,源站可能有防盗链机制,
Global Convolutional Network(GCN)网络模型
pywin
02-18 1786
Global Convolutional Network
GCN详解
真滴不可理喻的博客
01-27 8121
GCN详解,原来GCN这么简单
清晰表,详尽阐述 GNN、GCN、GAE 等 5 类模型
XXMRXXX的博客
09-02 9157
神经网络 (GNN) 神经网络是数据最原始的半监督深度学习方法。 GNN 的思路:为了编码结构信息,每个节点可以由低维状态向量表示。对于以为中心的任务,建议添加一个特殊节点,这个节点具有与整个相对应的唯一属性。 回顾过去,GNN 统一了一些处理数据的早期方法,如递归神经网络和马尔可夫链。 展望未来,GNN 中的概念具有深远的启示:许多最先进的 GCN 实际上遵循与邻近节点交换信息的...
卷积网络(Graph Convolution Network,GCN
热门推荐
weixin_44458771的博客
02-16 1万+
神经网络出现之前,一般的神经网络只能对常规的欧式数据进行处理,其特点就是节点有固定的排列规则和顺序,如2维网格和1维序列。近几年来,将深度学习应用到处理和结构数据相关的任务中越来越受到人们的关注。神经网络的出现使其在上述任务中取得了重大突破,比如在社交网络、自然语言处理、计算机视觉甚至生命科学等领域得到了非常广泛的应用。神经网络可以把实际问题看作中节点之间的连接和消息传播问题,对节点之间的依赖关系进行建模,从而能够很好地处理结构数据。
GAT-GCN神经网络系列code】
03-30
这是GAT-GCN神经网络系列code】。知识学习部分可参阅博主的个人主页。
T-GCN卷积神经网络-交通流预测)(代码).zip
01-09
卷积神经网络-交通流预测 Temporal Graph Convolutional Network
卷积网络 - PyTorch实现卷积网络(GCNGAT、Chebnet)的交通流量预测(完整源码和数据)
11-20
卷积网络 | PyTorch实现卷积网络(GCNGAT、Chebnet)的交通流量预测 > 交通流量预测。卷积网络(GCNGAT、Chebnet)的实现 用PyTorch实现 > > 要求 > > - Pytorch > > - Numpy > > - Pandas > > - ...
STGCN卷积神经网络.pdf
05-28
STGCN卷积神经网络
在NLP中应用GCN的几种构方法整理
carrie_0307的博客
04-06 3117
1. 基于 word 和 文档(document) 的构 AAAI2019: Graph Convolutional Networks for Text Classification 节点: words, documents 边: 基于 PMI 值构 word与document之间边权重: word在document中的tf-idf值 word之间的边权重: PMI PMI...
GCN卷积网络 Graph Convolutional Networks
zandaoguang的博客
02-15 1066
公众号关注“视学算法”设为 “星标”,DLCV消息即可送达!作者 | Frank Cao专栏 | 深度学习地址 | https://zhuanlan.zhihu.com/p/10100...
卷积神经网络GCN神经网络GNN
最新发布
zhu_xian_gang的博客
10-23 5494
GCN既可以进行直推式学习也可以进行归纳式学习,而传统的比如基于随机游走的方法、基于矩阵分解的方法、标签传播的只能进行直推式,但是直推式的缺点显而易见,直推式无法泛化到新结点,需要重新采样随机游走序列,优化更新所有节点的嵌入向量。然而归纳式学习可以泛化到新节点,也可进行迁移式学习,如GAT、GIN等神经网络方法(通过计算的范式,得到结构上的相似,比如,地理上的远隔)。
第十一章:GCN——卷积神经网络:全面回顾
ADICDFHL的博客
07-15 1803
作为神经网络模型的一种,卷积网络模型已成为机器学习和其他相关领域的热门话题,并且已经提出了大量模型来解决不同的问题。在本调查中,我们对卷积网络这一新兴领域进行了全面的文献综述。具体而言,我们引入了两个直观的分类法,以根据滤波操作的类型和应用领域对现有工作进行分组。对于每个分类法,我们从独特的角度提供了一些详细的例子。我们还讨论了现有卷积网络的一些挑战和潜在问题,并提供了一些未来的研究方向。
卷积神经网络GCN)与 注意力神经网络(GAT
weixin_43221749的博客
05-29 3401
显然学习顶点 i,j 之间的相关性,就是通过可学习的参数 W和映射 α(⋅) 完成的。
神经网络(三)GCN的变体与框架(1)GraphSAGE
weixin_43360025的博客
04-23 1442
神经网络(三)GCN的变体与框架(1)GraphSAGE3.1 GraphSAGE3.1.1 采样邻居  作为深度学习数据结合的代表性方法,GCN的出现带动了将神经网络技术运用于数据的学习任务中去的一大类方法,为了给出一个涵盖更广范围的定义,一般我们统称这类方法为神经网络,即Graph Neural Networks(GNN)[0] 。  在之前的章节我们提到从空域视角看GCN,本质上就是一个迭代式的聚合邻居的过程,这启发了一大类模型对于这种聚合操作的重新设计,这些设计在某方面大大加强了GNN对于
卷积网络(GCN)和池化
gongdiwudu的专栏
08-03 3433
GCN(Graph Convolutional Network)是一种用于形数据处理和机器学习的神经网络架构。GCN 可以在形中捕获节点之间的关系,从而能够更好地处理形数据。GCN 可以沿着形上的边缘执行滤波器操作,将每个节点的特征向量进行卷积处理,从而改变节点的特征表示。GCN 的应用领域包括社交网络分析、推荐系统、化学和生物信息学等。
卷积神经网络gcn改进
08-30
卷积神经网络(Graph Convolutional Neural Network,GCN)是一种应用于数据的深度学习模型。其主要目的是通过利用结构的局部连接和节点特征的传播来进行节点分类和分类任务。为了改进GCN模型,可以考虑以下方法: 1. 基于扩散卷积神经网络(DCNN)的改进:DCNN是一种利用中节点之间的扩散过程进行卷积操作的神经网络模型。可以借鉴DCNN中的扩散过程,将其引入GCN中,以提高GCN的表达能力和分类性能。 2. 基于信息传递神经网络(MPNN)的改进:MPNN是一种利用消息传递机制进行数据处理的神经网络模型。通过在GCN中引入MPNN的思想和机制,可以增强GCN结构的理解和节点特征的传播能力,从而提升GCN的性能。 3. 基于概率模型的改进:可以借鉴CGMM(NN4G概率模型)的思想,使用概率模型来描述节点之间的关系和特征传播过程。这样可以更灵活地建模结构和节点特征之间的关系,并提高GCN的分类准确性和解释性。 综上所述,可以通过引入扩散卷积神经网络、信息传递神经网络和概率模型等方法来改进卷积神经网络GCN)。这些改进方法可以提高GCN的表达能力、分类性能和解释性,使其更适用于数据的深度学习任务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [GCN演变及改进整理](https://blog.csdn.net/qq_60272314/article/details/120467382)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • VAE的原理+直观理解+公式推导+去噪+异常检测 40074
  • 科研-什么是热图? 29114
  • 全概率公式与贝叶斯公式 17740
  • 联想小新14风扇一直很响怎么办 13433
  • sort函数的时间、空间复杂度 13098

分类专栏

  • JAVA
  • 就业 1篇
  • 编程刷题 1篇
  • 前端 3篇
  • Pytorch 4篇
  • 研究生机器学习 25篇
  • python 6篇
  • 各种技术常识 2篇
  • 概率论 4篇
  • CCF刷题 46篇
  • CCF第三题 6篇
  • STL 2篇
  • realsense D435 3篇
  • 系统或软件安装 12篇
  • 深度学习 5篇
  • C++笔记 26篇

最新评论

  • Graph Neural Network-Based Anomaly Detection in Multivariate Time Series 代码配置及解析

    墩墩不打惇惇: 您好,是否可以再次分享一下包含数据集的代码?

  • Graph Neural Network-Based Anomaly Detection in Multivariate Time Series 代码配置及解析

    十三的州府: 引用「https://pan.baidu.com/s/1gM4KTbRNHzfbGEGgvEjXAw」 链接已经失效,可以再发一份吗,拜托

  • Graph Neural Network-Based Anomaly Detection in Multivariate Time Series 代码配置及解析

    weixin_45686858: 链接已经失效,能在发一份吗

  • Graph Neural Network-Based Anomaly Detection in Multivariate Time Series 代码配置及解析

    短笛的鱼: 请问一下问题解决了吗,是版本问题吗

  • Graph Neural Network-Based Anomaly Detection in Multivariate Time Series 代码配置及解析

    weixin_45889085: 版本问题,按照readme配置版本

大家在看

  • 同城如何异地共享文件? 428
  • 探索Three.js:从入门到精通的全面指南 864
  • 自学黑客(网络安全) 1845
  • 本地如何内网穿透映射外网 190
  • 【LinkedList与链表】

最新文章

  • linux服务器上遇到杀不死的进程怎么办?
  • word常用技巧--页码分节、多个参考文献连续引用
  • transformer中的QKV是如何得到的?
2024年3篇
2023年8篇
2022年27篇
2021年91篇
2020年5篇
2019年10篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

哆哆女性网郑姓女宝宝起名字卿起名维字起名字什么意思钟南山南抗击疫情的故事守卫剑阁神器版csbte冬至圆凌虚阁第四届奥运会零售微信群起名普拉多起名哈士奇起名字大全洋气偷窥孔雾里歌曲甜点店起名取名起名七画的字梓起什么什么名字好白山在线ps3主题下载给战队起个霸气点名字王心悦演员猫起名空调遥控器店铺取名起名大全免费网小作坊取名起名大全滕思宇义无反顾的意思姓贾起名字女孩名字姓高的名人起名大全餐饮起名重复好还是独立好淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻不负春光新的一天从800个哈欠开始有个姐真把千机伞做出来了国产伟哥去年销售近13亿充个话费竟沦为间接洗钱工具重庆警方辟谣“男子杀人焚尸”男子给前妻转账 现任妻子起诉要回春分繁花正当时呼北高速交通事故已致14人死亡杨洋拄拐现身医院月嫂回应掌掴婴儿是在赶虫子男孩疑遭霸凌 家长讨说法被踢出群因自嘲式简历走红的教授更新简介网友建议重庆地铁不准乘客携带菜筐清明节放假3天调休1天郑州一火锅店爆改成麻辣烫店19岁小伙救下5人后溺亡 多方发声两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#青海通报栏杆断裂小学生跌落住进ICU代拍被何赛飞拿着魔杖追着打315晚会后胖东来又人满为患了当地回应沈阳致3死车祸车主疑毒驾武汉大学樱花即将进入盛花期张立群任西安交通大学校长为江西彩礼“减负”的“试婚人”网友洛杉矶偶遇贾玲倪萍分享减重40斤方法男孩8年未见母亲被告知被遗忘小米汽车超级工厂正式揭幕周杰伦一审败诉网易特朗普谈“凯特王妃P图照”考生莫言也上北大硕士复试名单了妈妈回应孩子在校撞护栏坠楼恒大被罚41.75亿到底怎么缴男子持台球杆殴打2名女店员被抓校方回应护栏损坏小学生课间坠楼外国人感慨凌晨的中国很安全火箭最近9战8胜1负王树国3次鞠躬告别西交大师生房客欠租失踪 房东直发愁萧美琴窜访捷克 外交部回应山西省委原副书记商黎光被逮捕阿根廷将发行1万与2万面值的纸币英国王室又一合照被质疑P图男子被猫抓伤后确诊“猫抓病”

哆哆女性网 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化