中岸广告联盟 – 香港的国际性中文网上广告联盟

笨狐狸 发表于 建站SEO 分类,
0

中岸广告联盟是来自香港的一家广告联盟,目前有100余家广告主,主要以CPA、CPS广告为主,广告主比较国际化,什么国家的都有。

中岸广告联盟有英文版、简体中文版、繁体中文版,操作比较简单,赚到10元人民币即可申请支付到你的银行账号,信誉不错。

网址:http://www.chinesean.com/

中岸付款比较及时,申请支付后不到两周就会汇款给你,不扣手续费,也不扣税,没太多限制。

百度广告管家 – 稳定、高速、易用、免费的广告管理系统

笨狐狸 发表于 建站SEO 分类,
0

百度广告管家是一款面向中高端媒体的稳定、高速、易用、免费的广告管理系统,帮您轻松实现专业的广告投放、管理和数据统计工作。
广告位管理系统化管理广告位,支持固定、弹窗、漂浮三种类型。
收益优化可选择自动对空闲广告位使用网盟推广合作进行补余,提升收益。
精细投放提供地域、接入方式、日期、浏览器、浏览器语言、操作系统、分辨率、来源域、被访url共9种定向投放方式,满足最细粒度投放。
灵活计费提供按日、按展现、按点击3种主流计费方式。
广告托管支持文字、图片、Flash、富媒体4种格式广告,提供免费服务器存储您的广告,节省您的带宽。
专业报告提供投放报告、销售报告、资源报告3大类7种数据报告。

网址:http://adm.baidu.com/.

.htaccess的十个WordPress应用技巧

笨狐狸 发表于 建站SEO 分类,标签:
0

什么是.htaccess?

.htaccess是使用UNIX或Linux搭建的服务器中的一个特殊的文件,这个文件只存在于Linux系统中,Win系列的主机是没有的。

.htaccess有什么功能?

通俗点的讲,就是可以通过编写这个文件中的某些内容,进而实现.htaccess文件所在目录及其子目录的权限与功能的设置,是自己的站点灵活多变,下面就介绍.htaccess文件关于WordPress的十个应用技巧,举一反三,这些应用技巧同样适用于其它站点程序。

阅读全文 »

Who.is – 功能很全面的域名信息查询网站

笨狐狸 发表于 建站SEO 分类,
0

Who.is是一个域名信息查询网站,不但域名好记,而且功能全面、使用方便,能够查询100余种后缀的域名,可查询域名Whois历史(可查到该域名的上一个拥有者或上一个注册商)、域名Alexa排名信息、域名DNS解析记录、搜索结果等。除了域名相关信息查询,Who.is还提供了其它三个实用的站长工具,可查询有哪些域名使用了某个DNS服务器,服务器的Ping值以及服务器的Traceroute数据(可大体了解该服务器网络速度)。

网址:http://who.is

Ping值测试:http://www.who.is/tools/ping

Traceroute值测试:http://www.who.is/tools/traceroute

DNS服务器使用情况:http://www.who.is/nameserver

Sucuri – 免费网站安全检测服务

笨狐狸 发表于 建站SEO 分类,
0

Sucuri是一个免费的网站安全监控服务,可以定期扫描您的网站,一旦有任何未经授权的更改就会通知你相关情况,通过email,短信或者twitter。一般检测的项目主要有DNS和WHOIS的劫持,黑名单和恶意注入,以及网站的缺损等。这些服务都是完全免费的,并且不限制监控网站的数量。
点击导航条的network-based integrity,然后填写你要监控的网站URL,下一步,开始注册,填写邮箱,密码即可,你会看到监控的服务有:Site changes, Whois ,DNS ,Web headers 这么四项。

需要到邮箱激活一下,然后就可以设置扫描的频率,有每20分钟,30分钟,60分钟,2小时,每天扫描一次的选项。

http://sucuri.net/

主机不返回404状态导致网站无法被搜索引擎收录

笨狐狸 发表于 建站SEO 分类,
0

“robots.txt”文件是用来告诉搜索引擎那些目录不希望被抓取的。很多网站通常没有这样的需求,因而很容易省略掉这个文件。

当然,搜索引擎找不到这个文件并不妨碍网站被抓取,因为搜索引擎会认为该网站没有不希望被抓取的路径。然而,有些情况下,没有“robots.txt”文件却成为了网站不被搜索引擎收录的元凶。

搜索引擎判断一个网站能够被抓取,要么,就是不存在“robots.txt”文件,要么,就是可以读取到正确的“robots.txt”文件,并且“robots.txt”文件中没有限制整个网站禁止被抓取。

而搜索引擎判断“robots.txt”文件不存在的依据就是网站返回404错误。但是,并不是所有的主机都能够对不存在的文件正常返回404错误的。当主机返回的是其他的错误信息而非404,搜索引擎并不会认为“robots.txt”文件不存在,而会以为是服务器的暂时故障导致“robots.txt”文件不能被正确读取,因此不敢冒然抓取网站页面,只能过一段时间再来检查“robots.txt”文件。当然,主机可能永远也不会正确返回404错误,这就导致了网站永远不会被抓取。

当你发现网站长期没有被搜索引擎收录时,不妨试着先访问一下 http://yourdomain/robots.txt,如果你没有放置“robots.txt”文件而主机并没有返回404错误时,就应该马上放置一个正确的“robots.txt”文件,文件的内容可以这样写:

User-agent: *
Disallow:

或者留空。这样,你的网站就可以被正常地抓取了。