zl程序教程

您现在的位置是:首页 >  其它

当前栏目

多模型融合(相当于投票)

模型 融合 投票 相当于
2023-09-14 09:05:36 时间

在这里插入图片描述

# x的位置是loss最小到一个值T init就是初始化后要保存这个参数 反复利用即可 使用这个参数 过滤数据 输入到 bw 训练
# init 和 bw 是同一个网络  只不过一个是随机初始化参数保存的模型,只是过滤数据作用 不反向 ,bw是初始化参数和init一样
# 只接受init过滤后的数据训练
# 这样的单元针对其他的数据,多组和几个
# 这样几个模型融合,可以更好增加范化能力
# 是不是分类能力越强通用性就越强,分类能力取决于分类数量的多少 ,也不能这样说,主要就是输入的一个信息量 对于整个数据集来说
# 信息量越大,越好区分,通用性就越强 ,就比如说数据集有1000个图片你给他分为1000类直接不用输入网络即可,500类 200类,就会难度大一些
# 且输入每个类的相似性也就是共性要强,对于图片类的最好要根据内容进行分类,因为这样的类别相同点多提供的信息量足够的多
# 如果不足够的话就要使用其他网络增加信息量。首先1000分类,是可以将世界上的所有图片进行信息分类的,所以可以作为信息提取的工具
# 这就叫做分情况而定,针对其他功能网络使用1000分类进行信息提取就相当于将1000个情况的数据进行输入。这样问题就会好解决一些
# 因为这样做至少保证了输入的图片或者信息是可以被分为同一类的。
# 就算是同一个网络不通数据集,不