首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 其他教程 > 操作系统 >

汤圆爬虫-YuanXiaoSpider

2012-08-01 
元宵爬虫-YuanXiaoSpider翻译了下..没有元宵的淫文啊....所以用PinYing吧... 这几天写了一个爬虫可以做定

元宵爬虫-YuanXiaoSpider
翻译了下..没有元宵的淫文啊....所以用PinYing吧...

这几天写了一个爬虫可以做定向爬虫.也可以做全网爬虫.

该考虑的部分考虑了..不该考虑的没考虑

这里是个程序运行的大概UML不怎么会画凑合看吧




支持正则过滤网址  支持抽取模板  

这个项目比起nutch不具有可比性...如果你非要当个demo来看我也不喊冤呵呵...

里面的url抽取..正文抽取...都是自己写的

用到了一些java(据说高级)的东西..可惜仅仅是用到...比如curren nio

周六日费了两天电..目前采集没出大问题(中途断网一次).

如果非要说特点.那就是作者造轮子吧..基于原生java api 写的..不用导包..连log4j 都没要..当然我也没做log...

不是我喜欢造轮子..是不太会用轮子..比如htmlpaser 我怎么看它抽取的正文都不是我想要的东西...js css 都属于正文...而且还得导入个巨大的jar ...这不是我想要的...

数据有了.下一步把cq分词完善下..然后自己写个垃圾索引...一告慰我四年的无为java生涯

使用方法如下


1.首先将项目导入到eclipse
2.在D:/data/url.txt 存放你的种子网页
3.主类在 ansj.sun.spider.thread.Scheduler在这里运行就可以了

配置文件:regexFilter.txt 这个是对需要采集网址的正则过滤
d:/data/wrapper 里面存放用户的自定义抽取模板

抽取模板的例子如下
命名规则必须是news-*.xml


<?xml version="1.0" encoding="UTF-8"?><configure><listUrlRegex>http://roll.mil.news.sina.com.cn/col/zgjq/index_\d+.shtml</listUrlRegex><urlBlock><![CDATA[<div class="fixList">ANSJTEXT</div>]]></urlBlock><nextPage><![CDATA[<a title="下一页"ANSJTEXT下一页]]></nextPage><urlRegex>http://mil.news.sina.com.cn/(p/)?+\d{4}-\d{2}-\d{2}/\d+(_?+)\d+.html</urlRegex><title><![CDATA[<h1 id="artibodyTitle">ANSJTEXT</h1>]]></title><content><![CDATA[<!-- publish_helper name='原始正文' p_id='\d+' t_id='\d+' d_id='\d+' f_id='\d+' -->ANSJTEXT<style type="text/css">]]></content><publishTime><![CDATA[<span id="pub_date">ANSJTEXT</span>]]></publishTime><author><![CDATA[<span id="media_name">ANSJTEXT</span>]]></author></configure>
1 楼 cjf068 2012-02-08   呵呵,其实自己造轮子没什么不好滴!会造轮子总比不会的好啊,支持一个!我这段时间也在考虑爬虫,打算接触一下垂直搜索 2 楼 ansjsun 2012-02-08   1 楼 cjf068 3 分钟前   引用 删除 cjf068 写道呵呵,其实自己造轮子没什么不好滴!会造轮子总比不会的好啊,支持一个!我这段时间也在考虑爬虫,打算接触一下垂直搜索
我这个就是垂直搜索啊...支持呢呵呵... 3 楼 chasewade 2012-02-10   楼主四年生涯 拿多少K呢 4 楼 naily 2012-02-10   膜拜楼主,
同4年 , 没楼主这毅力 5 楼 duduwei 2012-02-10   配置最好还是别放文件里面,如果是垂直搜索的话很有很多正则要配置。还是用库吧,还有很多比如断点续搜,排重效率等问题~ 6 楼 ansjsun 2012-02-10   duduwei 写道配置最好还是别放文件里面,如果是垂直搜索的话很有很多正则要配置。还是用库吧,还有很多比如断点续搜,排重效率等问题~
写写你的提示。。。放到库和文件没大区别。。都是要实例化对象的。。这个我存放的是xml意思差不多吧。。断点续搜。。这个做了。。。每次保持读取行数。。如果程序死了就从下一行开始。。最坏情况会丢2000个网址。。如果你正常关闭时不会丢网址的。。。排重如果指的是url去重。。。用的是bloomfilter 效率。你懂的。。肯定不差。。。如果正文去重。。没做。。。现在正在改以前的分词。。我打算通过分出来的词。。。做指纹去重。。。写写你的关注和意见。。 7 楼 dizhuang 2012-02-13   支持你一下,其实有时候还是毅力问题,楼主多更心,我们一同交流一下。 8 楼 hlg5555 2012-02-13   爬虫拿来研究下  不搞过

热点排行