9月20
下面说下关于日流量10万IP的方法的延伸
。
我们先回忆一下, 这个利用搜索引擎做10万IP的整个流程和方法
。
1,去查询搜狗指数。
2,根据上面的关键词,来搜索相关的文章, 然后发到自己的百度空间里去。
3,然后等待收录就可以了。
4,每天都发几百篇,因为搜狗的即时指数大多都是一些偏僻的搜索,所以每天都会带来几个IP/篇文章,遇到一些热门的关键词,如果排名靠前了, 可能获得几千IP/天。
这个是前天写的一篇文章,昨天看到海一发了一个问题, 问自己有大量的百度空间流量,如何利用的问题, 问了一下他,他说他发了10篇文章,现在一天有1500IP左右的流量了,我看了一下他的空间,主要就是靠一篇 汪全前妻照 这篇文章搜索来的流量。
。我们先回忆一下, 这个利用搜索引擎做10万IP的整个流程和方法
。1,去查询搜狗指数。
2,根据上面的关键词,来搜索相关的文章, 然后发到自己的百度空间里去。
3,然后等待收录就可以了。
4,每天都发几百篇,因为搜狗的即时指数大多都是一些偏僻的搜索,所以每天都会带来几个IP/篇文章,遇到一些热门的关键词,如果排名靠前了, 可能获得几千IP/天。
这个是前天写的一篇文章,昨天看到海一发了一个问题, 问自己有大量的百度空间流量,如何利用的问题, 问了一下他,他说他发了10篇文章,现在一天有1500IP左右的流量了,我看了一下他的空间,主要就是靠一篇 汪全前妻照 这篇文章搜索来的流量。
9月15
很多朋友入侵网站后不知道如何挂黑链,当然啦刚开始我也不是很楚
,在入侵之后给网站挂黑连接的方法,如果您不晓得什么是隐藏链接,或者不晓得隐藏链接的作用,那么就就百度一下吧。下面是挂黑链的一些方法,仅供参考
:
div1:
当然啦DIV还有一种方法比较好一点,我一哥们说的,也就是下面这段。
div2:
javascript:
,在入侵之后给网站挂黑连接的方法,如果您不晓得什么是隐藏链接,或者不晓得隐藏链接的作用,那么就就百度一下吧。下面是挂黑链的一些方法,仅供参考
:div1:
当然啦DIV还有一种方法比较好一点,我一哥们说的,也就是下面这段。

div2:
javascript:
9月4
目前在国内,网站管理者似乎对robots.txt并没有引起多大重视
,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。
robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.hecks.tk/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# Robots.txt file from http://www.hecks.tk
# All robots will spider the domain
User-agent: *
Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.hecks.tk站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.hecks.tk/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# Robots.txt file from http://www.hecks.tk
# All robots will spider the domain
User-agent: *
Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.hecks.tk站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
9月2
我有几个域名是在易名中国注册的
,一般情况下我是在到期打不开网站的才去看是不是域名到期或者空间问题。然后才去续费。今天看到一个cn域名网站打不开,于是到易名一查看,是昨天8.20日到期的,于是也按照常规做法续费,点击后发现续费不了。
查看别人也有相关的问题,提出域名到期第二天就不能续费,进入高价赎回期,要500RMB
。已经写信给易名中国,看看怎么回复。看来易名中国的平台还是不能用,名富和爱名网还是不错的,到期前会给你电话通知,告知你域名到期要续费。
以下为和易名中国的往来邮件记录:
我:
你好,我的易名ID:****** ,由于我个人有事未能上网,导致我的******.cn在2010年8月20日到期,今天2010.8.21我上线后发现网站无法打开,我后易名后台看到域名到期,我续费的时候提示不能续费。
请问我该怎么办,才能续费?
易名中国:
经查看,您的域名已经进入等待删除期,只能高价赎回或等待域名删除后重新注册。如有疑问,欢迎提出,我们将竭诚为您服务!
,一般情况下我是在到期打不开网站的才去看是不是域名到期或者空间问题。然后才去续费。今天看到一个cn域名网站打不开,于是到易名一查看,是昨天8.20日到期的,于是也按照常规做法续费,点击后发现续费不了。查看别人也有相关的问题,提出域名到期第二天就不能续费,进入高价赎回期,要500RMB
。已经写信给易名中国,看看怎么回复。看来易名中国的平台还是不能用,名富和爱名网还是不错的,到期前会给你电话通知,告知你域名到期要续费。以下为和易名中国的往来邮件记录:
我:
你好,我的易名ID:****** ,由于我个人有事未能上网,导致我的******.cn在2010年8月20日到期,今天2010.8.21我上线后发现网站无法打开,我后易名后台看到域名到期,我续费的时候提示不能续费。
请问我该怎么办,才能续费?
易名中国:
经查看,您的域名已经进入等待删除期,只能高价赎回或等待域名删除后重新注册。如有疑问,欢迎提出,我们将竭诚为您服务!
5月7
如果要实现你新建的网站在一个月内alex排名从几千万升至50w,即使没有访问量也是可能的。 
根据我不负责任观察,搜索引擎的爬虫访问也能够影响Alex排名。所以如果短时间内无法提高访客流量,把你的网站登录搜索引擎吸引爬虫来抓取你的网页同样可以短时间提高alex排名。
我的方法是这样的:
首先,你必须拥有域名,而且可以随意添加二级域名;
第二,你必须拥有一个可以无限绑定域名的空间;
这样你就可以开始工作了。

根据我不负责任观察,搜索引擎的爬虫访问也能够影响Alex排名。所以如果短时间内无法提高访客流量,把你的网站登录搜索引擎吸引爬虫来抓取你的网页同样可以短时间提高alex排名。

我的方法是这样的:
首先,你必须拥有域名,而且可以随意添加二级域名;
第二,你必须拥有一个可以无限绑定域名的空间;
这样你就可以开始工作了。






