个人网站SEO-小总结

最近在对自己的小说网站做seo,发现遇到了很多挺无奈的事情,中间也碰到了很多问题,这篇博客记录了对自己网站seo这过程,稍微做了下总结,希望对大家有所帮助,避免过多的进坑。
前段时间,感觉自己太穷了,总想着有没什么办法可以在业余时间挣点外快,于是想到了做个小说网站好了,靠打点广告挣点钱。于是,说开动就开动,把我累的,想找小伙伴一起,一个个的都说没有时间,好吧!我自己搞,一坚持,两个月都快过去了,网站现在已经上线了,大家可以去看看, 虫子小说 :http://www.cznovel.com
如果喜欢看小说,欢迎常光顾,哈哈~。
小说资源都收集于网上,做了侵权声明,如果侵权的话,联系我,我会马上处理。
好了不多说,接下来说说对该网站的SEO吧
SEO即搜索引擎优化,简单的说,就是让百度、google、360等搜索引擎,可以发现我们的网站,让别人在搜索某些关键词时,能够展现出我们的网站,从而让用户有机会访问我们的网站。
以下内容主要以百度站长为例。

1.到各大站长平台中提交我们的网站

这里以国内三大搜索引擎为例
百度站长http://zhanzhang.baidu.com
360站长http://zhanzhang.so.com
搜狗站长http://zhanzhang.sogou.com
其中搜狗站长属于最坑的,很难被收录,即使提交了好多次,依然没有用,那只好等着吧。我们主要把重心放在百度站长上面。
在站长平台注册账户,进网站所有权验证,必须要经过备案的域名,方可认证,否则我也没办法了。
当然你也可以不需要注册,也能提交,不过很多功能你就无法享受到了,比如sitemap、主动推送、自动推送等等,后面会具体介绍。
无注册情况提交
具体示例
如:http://www.cznovel.com/type/1/detail/8152
如果没有被百度收录,则得到如下结果:
这里写图片描述

此时我们地点击“提交网站”
根据情况,填写相关信息即可,不过提交可不一定会收录,那要看网站的质量。
质量判定:通常重代码结构、访问速度等方便进行评估,其中原创最为重要,如果网站上的内容都是原创的,百度的蜘蛛就会非常喜欢,收录可能性非常大。因为我的小说网站大部分内容都是从网上爬来的,原创度上就会很低很低,这也是我很苦恼的地方。导致了提交的上万个链接都无法被收录。(好吧!我慢慢优化吧)
注:网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。

以下2,3,4都需要在百度站长注册成功,进行网站验证后才可进行操作。

2.主动推送

百度站长提供了主动提交的方式,详情可参考之前这篇文章,里面详细介绍了使用java进行百度的主动推送:http://blog.csdn.net/it_faquir/article/details/76284330
如有疑问请留言。

3.自动推送

只需要在head中添加相应的脚本即可。
代码获取:百度站长——>链接提交——>自动推送 在下面将会展现自动推送的代码,代码每个人的都是相同的,具体代码如下:

<script>
(function(){
    var bp = document.createElement('script');
    var curProtocol = window.location.protocol.split(':')[0];
    if (curProtocol === 'https') {
        bp.src = 'https://zz.bdstatic.com/linksubmit/push.js';        
    }
    else {
        bp.src = 'http://push.zhanzhang.baidu.com/push.js';
    }
    var s = document.getElementsByTagName("script")[0];
    s.parentNode.insertBefore(bp, s);
})();
</script>

4.sitemap生成与提交

sitemap方式提交,百度会周期性的抓取检查您提交的Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。
百度提供支持了三种sitemap的格式,一种是txt文档,另外两只为xml文档,但格式不同。具体可详情百度提供的参考文档:http://zhanzhang.baidu.com/college/courseinfo?id=267&page=2#h2_article_title19
三种格式都有各自遵循的规则

第一种txt格式:
· 文本文件每行都必须有一个网址。网址中不能有换行。
· 不应包含网址列表以外的任何信息。
· 您必须书写完整的网址,包括 http。
· 每个文本文件最多可包含 50,000 个网址,并且应小于10MB(10,485,760字节)。如果网站所包含的网址超过 50,000 个,则可将列表分割成多个文本文件,然后分别添加每个文件。
· 文本文件需使用 UTF-8 编码或GBK编码。

第二种和第三种xml格式:
若有多条url,按照上述格式重复之间的片断,列明所有url地址,打包到一个xml文件,向站长平台进行提交。

以上三种sitemap必须遵循的规则:
第一,一个Sitemap文件包含的网址不得超过 5 万个,且文件大小不得超过 10 MB。如果您的Sitemap超过了这些限值,请将其拆分为几个小的Sitemap。这些限制条件有助于确保您的网络服务器不会因提供大文件而超载。
重点内容
第二,一个站点支持提交的sitemap文件个数必须小于5万个,多于5万个后会不再处理,并显示“链接数超”的提示。

第三,如果验证了网站的主域,那么Sitemap文件中可包含该网站主域下的所有网址。

这里以其中一种xml的文件生成方式为例,利用java进行批量生成。
形如格式如下:

<?xml version="1.0" encoding="utf-8"?>
<!-- XML文件需以utf-8编码-->
<urlset>
<!--必填标签-->
    <url>
        <!--必填标签,这是具体某一个链接的定义入口,每一条数据都要用<url>和</url>包含在里面,这是必须的 -->
    <loc>http://www.yoursite.com/yoursite.html</loc>
        <!--必填,URL链接地址,长度不得超过256字节-->
        <lastmod>2009-12-14</lastmod>
        <!--可以不提交该标签,用来指定该链接的最后更新时间-->
        <changefreq>daily</changefreq>
        <!--可以不提交该标签,用这个标签告诉此链接可能会出现的更新频率 -->
        <priority>0.8</priority>
        <!--可以不提交该标签,用来指定此链接相对于其他链接的优先权比值,此值定于0.0-1.0之间-->
    </url>
    <url>
     <loc>http://www.yoursite.com/yoursite2.html</loc>
        <lastmod>2010-05-01</lastmod>
        <changefreq>daily</changefreq>
        <priority>0.8</priority>
    </url>
</urlset>

在java中可以利用dom4j这个xml工具包进行生成xml文档
导入相关Maven声明

        <!-- https://mvnrepository.com/artifact/dom4j/dom4j -->
        <dependency>
            <groupId>dom4j</groupId>
            <artifactId>dom4j</artifactId>
            <version>1.6.1</version>
        </dependency>

其具体生成代码示例

 public void createSitemap() throws Exception {
        List<String> allNovelUrl = new ArrayList<>();
        for (int i = 0; i < 10; i++) {
            List<Integer> novelIdList = baseDao.getNovelIdList(i, 0, 40000);
            for (Integer id : novelIdList)
                allNovelUrl.add("http://www.cznovel.com/type/" + i + "/detail/" + id);
        }
        Document document = DocumentHelper.createDocument();
        Element rootElement = createElement("urlset");
        for (int i = 0; i < allNovelUrl.size(); i++) {
            Element node1_0_url = createElement("url");
            Element node2_0_loc = createElement("loc");
            Element node2_1_lastmod = createElement("lastmod");
            Element node2_2_freq = createElement("changefreq");
            Element node2_3_priority = createElement("priority");
            node2_0_loc.addText(allNovelUrl.get(i));
            node2_1_lastmod.addText("2017-08-15");
            node2_3_priority.addText("1");
            node2_2_freq.setText("weekly");
            node1_0_url.add(node2_0_loc);
            node1_0_url.add(node2_3_priority);
            node1_0_url.add(node2_1_lastmod);
            node1_0_url.add(node2_2_freq);
            rootElement.add(node1_0_url);
        }
        document.add(rootElement);
        OutputFormat format = new OutputFormat("", true);
        format.setEncoding("UTF-8");//设置编码格式
        XMLWriter xmlWriter = new XMLWriter(new FileOutputStream("C:\\Users\\Administrator\\Desktop\\Sitemap.xml"), format);
        xmlWriter.write(document);
        xmlWriter.close();
    }

其中allNovelUrl里存放着所有小说url,主要用于设置其中某个字段的值。点击运行即可将sitemap文档生成在桌面上,名字为Sitemap.xml。
可以看如下生成的效果内容片断:

<urlset>
<url>
<loc>http://www.cznovel.com/type/0/detail/1</loc>
<priority>1</priority>
<lastmod>2017-08-15</lastmod>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.cznovel.com/type/0/detail/2</loc>
<priority>1</priority>
<lastmod>2017-08-15</lastmod>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.cznovel.com/type/0/detail/3</loc>
<priority>1</priority>
<lastmod>2017-08-15</lastmod>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.cznovel.com/type/0/detail/4</loc>
<priority>1</priority>
<lastmod>2017-08-15</lastmod>
<changefreq>weekly</changefreq>
</url>
  ......
<urlset>

生成好文档后,即可进行提交,入口:
链接提交——>自动提交——>sitemap

本人小说网站sitemap示例url: http://www.cznovel.com/sitemaps/sitemap-detail.xml

5.外联

这个简单,但比较耗时,算是一个累活吧。将我们的页面URL到各大网站上去发表,如百度贴吧、新浪微博、腾讯微博、博客,对于格式没有具体的要求,重点把你的链接发不去,这样百度收录该网站的页面时就会爬取到其中了链接,可以大大增加百度的收录,当然还是要看质量

6.蜘蛛池

说白了,蜘蛛池就是一堆由垃圾域名组成的站群,在每个站点下都生成海量页面(抓一堆文本内容相互组合),页面模板与正常网页没多大区别。由于每个站点都有海量的页面,所以整个站群的蜘蛛总抓取量也是巨大的。给未收录的页面引蜘蛛,就是在站群正常网页的模板中单独开一个DIV,塞上未收录网页的链接,服务器不设缓存,蜘蛛每次访问,这块DIV中展现的链接都是不一样的。
说到这你应该明白了,其实就是给那些未收录的页面,在短时间内提供大量的真实的外链,入口曝光多了,被抓取几率就大,收录率自然也就上去了,又因为是外链,所以在排名上也有一定的正向加分。说到底,蜘蛛池的做的就是外链,所谓日发外链300万,并不是不可能实现的。比如第一个例子中做搜索外推的,就是在站群的网页中挂了一堆大中型网站搜索结果页的链接。(这部分内容摘于网络)。

猜你喜欢

转载自blog.csdn.net/it_faquir/article/details/77688758