zl程序教程

您现在的位置是:首页 >  大数据

当前栏目

网站建好刚上线需要做好的一些设置

上线网站 设置 需要 一些 做好
2023-09-14 09:00:28 时间
第一,网站url设置必须简短有意义.此类设置经常用于cms搭建的网站,我们经常看到的有之梦的cms,当我们在创建一个栏目的时候,默认的是以该栏目的生成时间以及名称作为栏目和文章的url地址,这个地址非常长,并且对于搜索引擎及其不友好,其他站点也是一个道理,所以在进行内容更新之前我们首先要做到栏目和文章路径的url优化,要修改的地方在dedecms的后台,系统——系统基本参数.

栏目管理里文章命名规则{typedir}/{Y}/{M}{D}/{aid}.html改为{typedir}/{aid}.html删除中间的日期或者把中间部分改为栏目的简拼或者全拼的方式,列表列表命名规则{typedir}/list_{tid}_{page}.html改为{typedir}/list_{page}.html删除中间生成的tid缩小文章页的路径.
164a9ba737dca9e01316205bf0a97974c47f9e16
第二,网站的404页面设置.404页面主要为一些失效的无法打开的网站链接准备的,很多网站由于改版或者数据库的更新导致url出现无法打开的情况发生。404页面的作用是什么?一旦出现网页无法打开,这个时候我们就要通过404页面进行友好的提示用户返回到我们网站的首页,这样引导用户继续访问其他的页面,增加了我们网站体验度和用户浏览时间,大家可以根据自己喜好选择页面布局方式,但是注意底部的返回首页是必须要保留的.

第三,网站的301永久重定向.我们知道新上线的站点一般同带www的域名和不带www的域名,但是这两个域名对用户打开看到的首页没有什么区别,但是百度会认为两个域名,权重会分散,所以作为seoer我们要做的就行对应url进行永久的重定向,方法是把不带www的地址跳转到带WWW的域名,以防权重分散.

第四,网站Robots协议设置.Robots协议全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取.当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围.具体的设置方法,笔者在这里举例说明:其他更多的知识可以通过百度搜索了解.

1)、禁止所有搜索引擎访问网站的任何部分

User-agent:*
Disallow:/

2)、允许所有的robot访问(或者也可以建一个空文件“/robots.txt”file)

User-agent:*
Allow:/

3)、禁止某个搜索引擎的访问

User-agent:Baiduspider
allow:/

第四,网站地图的设置方法.常见的网站地图一般包含2种,一种是html静态地图,一种是xml格式的地图,xml格式的地图主要是站在搜索引擎角度以一种索引的方式搜索引擎可以理解的形式告知搜索引擎,以提高网站的收录.另外一种是html格式的,这种一般是对网站的结构栏目为呈现方法,将网站的首页以及各级重要的栏目页和列表页以链接的方式展示出来,方便用户查看网站内容.这些细节都是为了提升网站对于搜索引擎的友好度,提升搜索引擎抓取重点页面的效率而进行的基础优化.原文:http://www.szweb.cn/Knowledge/5468.html
如何创建网站这方面一定要做好 创建网站如今已经非常普遍,不仅企业会建设自己的网站,很多个人也会建设私人网站。但是到底如何创建网站呢?创建网站听起来简单,但做起来是很考究技术的。之所以说建站简单,那是因为建站可以采取模板建站的模式,网站框架已经是固定好的,直接套用就可以了,是比较方便的。但是如果对网站要求比较高的话,套用模板的建站方式就不能满足需求了,优秀的网站一定是要有自己的特色的,成功的网站建设要做好下面几点内容。
云服务器部署后台过程记录 现做毕业设计,使用前后端分离的设计模式,后端完成后为方便后续调用以及维护,将后端打包后部署到ECS云服务器上,在此介绍部署流程及一些问题。
两把利器,轻松做好十一期间服务器监控保障 由于服务器需要7×24 小时运行,十一期间,为了切实做好服务器的重点保障,电源监控,必不可少。基于成本的考虑,我们决定自己做。如何多快好省,实现一个这样的平台呢?思路是通过服务器自带的远程管理模块读取redfish接口中电源功耗信息,然后采集到时间序列数据库,再通过grafana基于时间和ip做条件筛选做展示。这里就要用到两把开源利器Grafana和Influxdb。