网站首页 站群程序 泛站群 正文
本搜狗泛二级泛站程序由网友处购得。刘二狗蜘蛛池前年就听说过,近半年以来销声匿迹了,不知道还在做没有。然而刘二狗搜狗站群我还是第一次听说过,重点是程序中介绍“本程序售价9988元一套,程序只做测试使用,严禁违规操作。”这个价格令人咂舌,可以说天价程序了,不知道哪个怨种才会以这个价格购买。
认真分析了约6个小时的程序,细细查看了每一个文件,得出总结:程序自带3个单页模板,均为单页分城市模板,可作泛二级域名收录使用;程序自带蜘蛛统计、蜘蛛强引功能。但个人认为,有钱买这么贵的程序,不如批量采购小旋风蜘蛛池模板了,用小旋风蜘蛛池搞成百上千个模板做搜狗泛收不香吗?
发布日期:2022-04-11 13:06:59
最后更新日期:2022-06-04 14:45:33
温馨提示
本程序为php爱好者打造,仅供学习调用提取本地指定文件夹内的随机行等函数,如需学习,务必断网调试,绝对禁止传播,更不得上传至任何在线网站。
演示站
演示环境:Linux+Nginx+PHP5.6
演示说明:请不要用本程序从事任何违法行为!
1.演示站点非站内链接,请自行复制访问,仅作程序/源码演示,不作为其他任何用途;
2.演示站点为源程序的代码,站点内的任何内容与我站无关,所有内容均非我站观点,如有违法、不雅内容,请联系我站删除;
3.演示站点为二级域名,因此演示站或存在二级域名、二级目录无法正常打开的情况,故不能完全演示;
4.演示站点具有时效性,站长仅能保证安装时所有文件可用,如采集php文件、推送php文件等,不能保证源采集点还能使用;
5.请认真参阅演示站点,如有个别页面/文件无法打开的,大多属于源程序存的问题,购买即视为认可,不在售后范围;
6.演示站点使用robots.txt屏蔽所有搜索引擎抓取,不能视为该站群程序的使用后的实际效果;
提示:原程序非我站编写,乃是热心网友提供,如有侵权万分抱歉,请联系我们删除!
安装亲测
程序无数据库,直接上传到网站根目录,填写好伪静态即可,默认开启抓取/访问即缓存。
Nginx伪静态
if (!-e $request_filename) { rewrite /index.html$ /index.php; rewrite ^/(.*).html /404.php; }
升级事项
得到程序后,对原始程序做出了以下修改:
1.修复了程序根目录下caiji.php的include函数写法错误;
2.将蜘蛛统计文件zz.php和蜘蛛强引文件kou.php内的css本地化;
3.修改了部分文件夹路径,使得操作更加简单明了;
4.删除部分失效、无意义文件;
注意事项
使用程序的话,对照文末模板架构自行配置根目录下的data文件夹内的内容即可;
一定要在data目录下的dom文件夹下写绑定的域名,一行一个;
一定要修改data目录下的dom文件夹,在里面写你要的关键词,一行一个;
一定要修改程序根目录下百度token推送文件zz.php,将token值修改成绑定域名的token值,所有的域名绑定一个百度站长资源平台账号,可以公用一个token值;
蜘蛛统计文件
文件打开方式:域名/zz.php
程序自带蜘蛛统计文件,如需清空缓存,可至程序根目录下的zhizhu文件夹内删除所有txt文件,此文件为蜘蛛抓取记录;
蜘蛛强引文件
文件打开方式:域名/kou.php
这是蜘蛛强引文件,蜘蛛池访问限制中可以设置仅蜘蛛访问,或者访客和蜘蛛均可访问;可以开启蜘蛛强引功能,并可以指定强引蜘蛛的种类(可以选择百度蜘蛛/搜狗蜘蛛/360蜘蛛/谷歌蜘蛛),可以强引指定蜘蛛IP(在根目录下spider文件夹下,不同的蜘蛛IP段对应不同标题的文件。)
PHP探针
文件打开方式:域名/u.php
一般来说这个页面没啥用,打开一看比较美观,就不删除了。
采集文件
文件打开方式:域名/caiji.php
可以采集句子,采集来的文件会放到根目录下的news文件夹中。
程序模板
本程序内共包含3套模板,均只有首页模板,用来作搜狗首页泛收使用。
首页模板一
首页模板二
首页模板三
模板标签
下文中所示模板标签为发稿日在php模型中提取,或有遗漏。
<刘二狗_新闻网实时标题>:新闻标题模板文件夹地址是:data/tpl/shouye/; <刘二狗_随机图片>:随机图片;pics文件夹放图片; <刘二狗_动态句子>:随机句子; <刘二狗_发布标准时间>:时间标签,如:2021-12-2019:28:57 <刘二狗_动态随机字符>:随机字符标签字母+数字; <刘二狗_动态随机数字>:随机数字标签纯数字5位数; <刘二狗_随机外链>:随机外链域名库里面的域名文件夹:data/dom/domains.txt放主域名一行一个如123.com(不可随机建txt); <刘二狗_蜘蛛引流>:蜘蛛池引其他站用文件夹:data/spider/里面随便建txt放链接一个链接一行; <刘二狗_关键词1>:主关键词;文件夹:data/keywords/里面随便建txt关键词,一个链接一行; <刘二狗_随机关键词>:随机关键词;文件夹:data/keywords/里面随便建txt关键词一个链接一行; <刘二狗_顶级域名> <刘二狗_干扰符> <刘二狗_推广库> <刘二狗_动态寄生虫>
程序目录文件
所见即所得,下载后您将得到以下截图内的程序文件:
程序架构
<2022-04-11 刘二狗搜狗泛站群> ├caiji.php 新闻标题采集文件 ├config.php ├configure.php 蜘蛛强引的设置文件 ├favicon.ico ├hret.txt ├index.php ├kou.php 蜘蛛强引文件 ├robots.txt ├sitemap.php ├sogou.css ├sogou1.css ├ts.php 百度推送文件 ├u.php PHP探针 ├zz.php 蜘蛛统计文件 ├使用说明.txt ├<data> 调用的数据文件 │ ├dirCache.class.php │ ├<cache> 缓存在这里删除 │ ├<dom> 一定要把程序绑定的域名写在这里,一行一个 │ │ └domains.txt │ ├<jsc> │ │ └dongtai.txt │ ├<keywords> 关键词文件,一定要配置 │ │ └keyword.txt │ ├<map> │ ├<newslinks> 新闻外链标题 │ │ └newslinks.txt │ ├<shipin> 暂时用不到 │ ├<spider> │ │ └spider.txt │ ├<tpl> │ │ ├<js> │ │ ├<shouye> 所有的的模板都在这里 │ │ │ ├chengshi1.php │ │ │ ├chengshi2.txt │ │ │ ├chengshi3.txt │ │ │ └chengshi4.txt │ │ ├<v1> │ │ │ ├<js> │ ├<wailian> ├<news> 采集的新闻在这里 ├<pics> ├<simple> ├<spider> 指定蜘蛛IP段强引出去的配置文件 │ ├baidu.txt │ ├google.txt │ ├sll.txt │ └sougou.txt ├<style> ├<style1> ├<zhizhu> 蜘蛛缓存记录
- 上一篇: 适用于超度站群的图书模板
- 下一篇: 屏蔽访客仅蜘蛛可见页面真实内容的PHP代码
必看说明
- 本站中所有被研究的素材与信息全部来源于互联网,版权争议与本站无关。
- 本站文章或仅为文本内容原创,非程序原创。如有侵权、不妥之处,请联系站长第一时间删除。敬请谅解!
- 本站所有内容严格遵守国家法律的条例,所有研究的算法技术均来源于搜索引擎公开默认允许用户研究使用的接口。
- 阅读本文及获取资源前,请确保您已充分阅读并理解《访问曹操SEO网站需知:行为准则》。
- 本站分享的任何工具、程序仅供学习参考编写架构,仅可在本地的虚拟机内断网测试,严禁联网运行或上传搭建!
- 任何资源必须在下载后24个小时内,从电脑中彻底删除。不得传播或者用于其他任何用途!否则一切后果用户自负!
- 转载请注明 : 文章转载自 曹操资源网 刘二狗搜狗泛二级站群程序
- 本文标题:《刘二狗搜狗泛二级站群程序》
- 本文链接:http://www.ccooc.cc/1064.html
猜你喜欢
- 2023-05-10 手机狐狸网资讯站群程序
- 2023-05-10 使用php在拼音转文字时过滤掉标点符号及英文字符
- 2023-05-10 泛目录站群的操作方法及注意事项
- 2023-05-10 泛目录站群程序的含义与使用
- 2023-04-18 金融新闻资讯站群程序
- 2023-04-17 应用汇资源分享站群程序
- 2023-04-10 阀门制造行业企业站群程序
- 2023-04-07 灯具照明行业企业站群程序
- 2023-04-07 人才咨询行业企业站群程序
- 2023-04-06 渔业协会行业企业站群程序
本文暂时没有评论,来添加一个吧(●'◡'●)