多模型融合(相当于投票)
模型 融合 投票 相当于
2023-09-14 09:05:36 时间
# x的位置是loss最小到一个值T init就是初始化后要保存这个参数 反复利用即可 使用这个参数 过滤数据 输入到 bw 训练
# init 和 bw 是同一个网络 只不过一个是随机初始化参数保存的模型,只是过滤数据作用 不反向 ,bw是初始化参数和init一样
# 只接受init过滤后的数据训练
# 这样的单元针对其他的数据,多组和几个
# 这样几个模型融合,可以更好增加范化能力
# 是不是分类能力越强通用性就越强,分类能力取决于分类数量的多少 ,也不能这样说,主要就是输入的一个信息量 对于整个数据集来说
# 信息量越大,越好区分,通用性就越强 ,就比如说数据集有1000个图片你给他分为1000类直接不用输入网络即可,500类 200类,就会难度大一些
# 且输入每个类的相似性也就是共性要强,对于图片类的最好要根据内容进行分类,因为这样的类别相同点多提供的信息量足够的多
# 如果不足够的话就要使用其他网络增加信息量。首先1000分类,是可以将世界上的所有图片进行信息分类的,所以可以作为信息提取的工具
# 这就叫做分情况而定,针对其他功能网络使用1000分类进行信息提取就相当于将1000个情况的数据进行输入。这样问题就会好解决一些
# 因为这样做至少保证了输入的图片或者信息是可以被分为同一类的。
# 就算是同一个网络不通数据集,不
相关文章
- Meta发布全新检索增强语言模型Atlas,110亿参数反超5400亿的PaLM
- DeepLearning之LSTM模型输入参数:time_step, input_size, batch_size的理解[通俗易懂]
- 推荐系统模型发展简史
- 以数据为中心和模型为中心的AI是贝叶斯论和频率论的另一种变体吗?
- 瀑布模型详解
- 使用 Docker 来快速上手中文 Stable Diffusion 模型:太乙
- Linux网络-五种IO模型
- 数据挖掘机器学习[五]---汽车交易价格预测详细版本{模型融合(Stacking、Blending、Bagging和Boosting)}
- 浅析云边端融合趋势下的架构模型优化设计
- 推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTA
- Linux:优化内存管理技术(linux 内存模型)
- Dubbo剖析-线程模型
- 细品javascript寻址,闭包,对象模型和相关问题