微软官方MSDN原版Win10系统下载

现在位置: 首页  > 系统教程  > 系统帮助

如何编写网络爬虫

时间:2024-11-23 20:31:40   

大家好,今天Win10系统之家小编给大家分享「如何编写网络爬虫」的知识,如果能碰巧解决你现在面临的问题,记得收藏本站或分享给你的好友们哟~,现在开始吧!

网络信号大师最新版系列软件最新版本下载

1.什么是网络爬虫以及怎么做?


  网络爬虫:是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。
做法:传统爬虫从一个或若干初始网页的url开始,获得初始网页上的url,在抓取网页的过程中,不断从当前页面上抽取新的url放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的url队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页url,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。

2.php 实现网络爬虫


  只要包含网络和字符串处理功能的编程语言理论上都可以写爬虫,所以 PHP 当然完全没问题。如何用 PHP 写爬虫的前提是你要先调研清楚爬什么内容。这需要你针对要爬取目标做好充分的测试和准备工作,否则会浪费很多时间。
比如一个简单的“传统型”网站,那真的只需要用 file_get_contents 函数加正则就能搞定。觉的正则匹配数据太麻烦可以上 xpath。如果站点有了频率和 IP 限制,这时就要额外准备好代理 IP 池了。当发现抓取内容是 JS 渲染的,可能要考虑引入 headless browser 这种技术的 PHP 扩展了。对爬取效率有了要求后,多线程,抓取和解析分离,分布式也是要考虑的了。。。
回到问题本身如何写的问题,我个人觉得爬虫是个定制化比较高的业务需求,需要根据具体的场景来规划。如果是要写一个能解决所有爬虫场景的,那就不用自己写了,成熟的开源软件拿来直接用就行了。非要写的话可以直接参考这些成熟的软件,自己可以少踩很多坑。

3.如何优雅地使用c语言编写爬虫


  前言
大家在平时或多或少地都会有编写网络爬虫的需求。一般来说,编写爬虫的首选自然非python莫属,除此之外,java等语言也是不错的选择。选择上述语言的原因不仅仅在于它们均有非常不错的网络请求库和字符串处理库,还在于基于上述语言的爬虫框架非常之多和完善。良好的爬虫框架可以确保爬虫程序的稳定性,以及编写程序的便捷性。所以,这个cspider爬虫库的使命在于,我们能够使用c语言,依然能够优雅地编写爬虫程序。
爬虫的特性
配置方便。使用一句设置函数,即可定义user agent,cookie,timeout,proxy以及抓取线程和解析线程的最大数量。
程序逻辑独立。用户可以分别定义爬虫的解析函数,和数据持久化函数。并且对于解析到的新url,用户可以使用cspider提供的addUrl函数,将其加入到任务队列中。
便捷的字符串处理。cspider中提供了基于pcre的简单的正则表达式函数,基于libxml2的xpath解析函数,以及用于解析json的cJSON库。
高效的抓取。cspider基于libuv调度抓取线程和解析线程,使用curl作为其网络请求库。
使用cspider的步骤
获取cspider_t。
自定义user agent,cookie,timeout,proxy以及抓取线程和解析线程的最大数量。
添加初始要抓取的url到任务队列。
编写解析函数和数据持久化函数。
启动爬虫。
例子
先来看下简单的爬虫例子,会在后面详细讲解例子。
#include<cspider/spider.h>
/*
 自定义的解析函数,d为获取到的html页面字符串
*/
void p(cspider_t *cspider, char *d, void *user_data) {
 char *get[100];
 //xpath解析html
 int size = xpath(d, "//body/div[@class=wrap]/div[@class=sort-column area]/div[@class=column-bd cfix]/ul[@class=st-list cfix]/li/strong/a", get, 100);
 int i;
 for (i = 0; i < size; i++) {
 //将获取到的电影名称,持久化
 saveString(cspider, get[i]);
 }
}
/*
 数据持久化函数,对上面解析函数中调用的saveString()函数传入的数据,进行进一步的保存
*/
void s(void *str, void *user_data) {
 char *get = (char *)str;
 FILE *file = (FILE*)user_data;
 fprintf(file, "%sn", get);
 return;
}
int main() {
 //初始化spider
 cspider_t *spider = init_cspider();
 char *agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.10; rv:42.0) Gecko/20100101 Firefox/42.0";
 //char *cookie = "bid=s3/yuH5Jd/I; ll=108288; viewed=1130500_24708145_6433169_4843567_1767120_5318823_1899158_1271597; __utma=30149280.927537245.1446813674.1446983217.1449139583.4; __utmz=30149280.1449139583.4.4.utmcsr=accounts.douban.com|utmccn=(referral)|utmcmd=referral|utmcct=/login; ps=y; ue=965166527@qq.com; dbcl2=58742090:QgZ2PSLiDLQ; ck=T9Wn; push_noty_num=0; push_doumail_num=7; ap=1; __utmb=30149280.0.10.1449139583; __utmc=30149280";
 //设置要抓取页面的url
 cs_setopt_url(spider, "so.tv.sohu.com/list_p1100_p20_p3_u5185_u5730_p40_p5_p6_p77_p80_p9_2d1_p101_p11.html");
 //设置user agent
 cs_setopt_useragent(spider, agent);
 //cs_setopt_cookie(spider, cookie);
 //传入解析函数和数据持久化函数的指针
 cs_setopt_process(spider, p, NULL);
 //s函数的user_data指针指向stdout
 cs_setopt_save(spider, s, stdout);
 //设置线程数量
 cs_setopt_threadnum(spider, DOWNLOAD, 2);
 cs_setopt_threadnum(spider, SAVE, 2);
 //FILE *fp = fopen("log", "wb+");
 //cs_setopt_logfile(spider, fp);
 //开始爬虫
 return cs_run(spider);
}
例子讲解
cspider_t *spider = init_cspider();获取初始的cspider。cs_setopt_xxx这类函数可以用来进行初始化设置。其中要注意的是: cs_setopt_process(spider,p,NULL);与cs_setopt_save(spider,s,stdout);,它们分别设置了解析函数p和数据持久化函数s,这两个函数需要用户自己实现,还有用户自定义的指向上下文信息user_data的指针。
在解析函数中,用户要定义解析的规则,并对解析得到的字符串可以调用saveString进行持久化,或者是调用addUrl将url加入到任务队列中。在saveString中传入的字符串会在用户自定义的数据持久函数中得到处理。此时,用户可以选择输出到文件或数据库等。
最后调用cs_run(spider)即可启动爬虫。
具体的API参数可在这里查看
总结
赶快使用cspider爬虫框架来编写爬虫吧!如果在使用过程中发现bug,欢迎反馈。
望采纳,谢谢

4.精通Python网络爬虫之网络爬虫学习路线


  欲精通Python网络爬虫,必先了解网络爬虫学习路线,本篇经验主要解决这个问题。部分内容参考自书籍《精通Python网络爬虫》。
  作者:韦玮
  转载请注明出处
  随着大数据时代的到来,人们对数据资源的需求越来越多,而爬虫是一种很好的自动采集数据的手段。
  那么,如何才能精通Python网络爬虫呢?学习Python网络爬虫的路线应该如何进行呢?在此为大家具体进行介绍。
  1、选择一款合适的编程语言
  事实上,Python、PHP、JAVA等常见的语言都可以用于编写网络爬虫,你首先需要选择一款合适的编程语言,这些编程语言各有优势,可以根据习惯进行选择。在此笔者推荐使用Python进行爬虫项目的编写,其优点是:简洁、掌握难度低。
  2、掌握Python的一些基础爬虫模块
  当然,在进行这一步之前,你应当先掌握Python的一些简单语法基础,然后才可以使用Python语言进行爬虫项目的开发。
  在掌握了Python的语法基础之后,你需要重点掌握一个Python的关于爬虫开发的基础模块。这些模块有很多可以供你选择,比如urllib、requests等等,只需要精通一个基础模块即可,不必要都精通,因为都是大同小异的,在此推荐的是掌握urllib,当然你可以根据你的习惯进行选择。
  3、深入掌握一款合适的表达式
  学会了如何爬取网页内容之后,你还需要学会进行信息的提取。事实上,信息的提取你可以通过表达式进行实现,同样,有很多表达式可以供你选择使用,常见的有正则表达式、XPath表达式、BeautifulSoup等,这些表达式你没有必要都精通,同样,精通1-2个,其他的掌握即可,在此建议精通掌握正则表达式以及XPath表达式,其他的了解掌握即可。正则表达式可以处理的数据的范围比较大,简言之,就是能力比较强,XPath只能处理XML格式的数据,有些形式的数据不能处理,但XPath处理数据会比较快。
  4、深入掌握抓包分析技术
  事实上,很多网站都会做一些反爬措施,即不想让你爬到他的数据。最常见的反爬手段就是对数据进行隐藏处理,这个时候,你就无法直接爬取相关的数据了。作为爬虫方,如果需要在这种情况下获取数据,那么你需要对相应的数据进行抓包分析,然后再根据分析结果进行处理。一般推荐掌握的抓包分析工具是Fiddler,当然你也可以用其他的抓包分析工具,没有特别的要求。
  5、精通一款爬虫框架
  事实上,当你学习到这一步的时候,你已经入门了。
  这个时候,你可能需要深入掌握一款爬虫框架,因为采用框架开发爬虫项目,效率会更加高,并且项目也会更加完善。
  同样,你可以有很多爬虫框架进行选择,比如Scrapy、pySpider等等,一样的,你没必要每一种框架都精通,只需要精通一种框架即可,其他框架都是大同小异的,当你深入精通一款框架的时候,其他的框架了解一下事实上你便能轻松使用,在此推荐掌握Scrapy框架,当然你可以根据习惯进行选择。
  6、掌握常见的反爬策略与反爬处理策略
  反爬,是相对于网站方来说的,对方不想给你爬他站点的数据,所以进行了一些限制,这就是反爬。
  反爬处理,是相对于爬虫方来说的,在对方进行了反爬策略之后,你还想爬相应的数据,就需要有相应的攻克手段,这个时候,就需要进行反爬处理。
  事实上,反爬以及反爬处理都有一些基本的套路,万变不离其宗,这些后面作者会具体提到,感兴趣的可以关注。
  常见的反爬策略主要有:
  IP限制
  UA限制
  Cookie限制
  资源随机化存储
  动态加载技术
  ……
  对应的反爬处理手段主要有:
  IP代理池技术
  用户代理池技术
  Cookie保存与处理
  自动触发技术
  抓包分析技术+自动触发技术
  ……
  这些大家在此先有一个基本的思路印象即可,后面都会具体通过实战案例去介绍。
  7、掌握PhantomJS、Selenium等工具的使用
  有一些站点,通过常规的爬虫很难去进行爬取,这个时候,你需要借助一些工具模块进行,比如PhantomJS、Selenium等,所以,你还需要掌握PhantomJS、Selenium等工具的常规使用方法。
  8、掌握分布式爬虫技术与数据去重技术
  如果你已经学习或者研究到到了这里,那么恭喜你,相信现在你爬任何网站都已经不是问题了,反爬对你来说也只是一道形同虚设的墙而已了。
  但是,如果要爬取的资源非常非常多,靠一个单机爬虫去跑,仍然无法达到你的目的,因为太慢了。
  所以,这个时候,你还应当掌握一种技术,就是分布式爬虫技术,分布式爬虫的架构手段有很多,你可以依据真实的服务器集群进行,也可以依据虚拟化的多台服务器进行,你可以采用urllib+redis分布式架构手段,也可以采用Scrapy+redis架构手段,都没关系,关键是,你可以将爬虫任务部署到多台服务器中就OK。
  至于数据去重技术,简单来说,目的就是要去除重复数据,如果数据量小,直接采用数据库的数据约束进行实现,如果数据量很大,建议采用布隆过滤器实现数据去重即可,布隆过滤器的实现在Python中也是不难的。
  以上是如果你想精通Python网络爬虫的学习研究路线,按照这些步骤学习下去,可以让你的爬虫技术得到非常大的提升。
  至于有些朋友问到,使用Windows系统还是Linux系统,其实,没关系的,一般建议学习的时候使用Windows系统进行就行,比较考虑到大部分朋友对该系统比较数据,但是在实际运行爬虫任务的时候,把爬虫部署到Linux系统中运行,这样效率比较高。由于Python的可移植性非常好,所以你在不同的平台中运行一个爬虫,代码基本上不用进行什么修改,只需要学会部署到Linux中即可。所以,这也是为什么说使用Windows系统还是Linux系统进行学习都没多大影响的原因之一。
  本篇文章主要是为那些想学习Python网络爬虫,但是又不知道从何学起,怎么学下去的朋友而写的。希望通过本篇文章,可以让你对Python网络爬虫的研究路线有一个清晰的了解,这样,本篇文章的目的就达到了,加油!
  本文章由作者韦玮原创,转载请注明出处。

5.Java网络爬虫怎么实现?


  网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。
 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。对于垂直搜索来说,聚焦爬虫,即有针对性地爬取特定主题网页的爬虫,更为适合。
 以下是一个使用java实现的简单爬虫核心代码: 
public void crawl() throws Throwable { 
 while (continueCrawling()) { 
 CrawlerUrl url = getNextUrl(); //获取待爬取队列中的下一个URL 
 if (url != null) { 
 printCrawlInfo(); 
 String content = getContent(url); //获取URL的文本信息 
 
 //聚焦爬虫只爬取与主题内容相关的网页,这里采用正则匹配简单处理 
 if (isContentRelevant(content, this.regexpSearchPattern)) { 
 saveContent(url, content); //保存网页至本地 
 
 //获取网页内容中的链接,并放入待爬取队列中 
 Collection urlStrings = extractUrls(content, url); 
 addUrlsToUrlQueue(url, urlStrings); 
 } else { 
 System.out.println(url + " is not relevant ignoring ..."); 
 } 
 
 //延时防止被对方屏蔽 
 Thread.sleep(this.delayBetweenUrls); 
 } 
 } 
 closeOutputStream(); 
}
private CrawlerUrl getNextUrl() throws Throwable { 
 CrawlerUrl nextUrl = null; 
 while ((nextUrl == null) && (!urlQueue.isEmpty())) { 
 CrawlerUrl crawlerUrl = this.urlQueue.remove(); 
 //doWeHavePermissionToVisit:是否有权限访问该URL,友好的爬虫会根据网站提供的"Robot.txt"中配置的规则进行爬取 
 //isUrlAlreadyVisited:URL是否访问过,大型的搜索引擎往往采用BloomFilter进行排重,这里简单使用HashMap 
 //isDepthAcceptable:是否达到指定的深度上限。爬虫一般采取广度优先的方式。一些网站会构建爬虫陷阱(自动生成一些无效链接使爬虫陷入死循环),采用深度限制加以避免 
 if (doWeHavePermissionToVisit(crawlerUrl) 
 && (!isUrlAlreadyVisited(crawlerUrl)) 
 && isDepthAcceptable(crawlerUrl)) { 
 nextUrl = crawlerUrl; 
 // System.out.println("Next url to be visited is " + nextUrl); 
 } 
 } 
 return nextUrl; 
}
private String getContent(CrawlerUrl url) throws Throwable { 
 //HttpClient4.1的调用与之前的方式不同 
 HttpClient client = new DefaultHttpClient(); 
 HttpGet httpGet = new HttpGet(url.getUrlString()); 
 StringBuffer strBuf = new StringBuffer(); 
 HttpResponse response = client.execute(httpGet); 
 if (HttpStatus.SC_OK == response.getStatusLine().getStatusCode()) { 
 HttpEntity entity = response.getEntity(); 
 if (entity != null) { 
 BufferedReader reader = new BufferedReader( 
 new InputStreamReader(entity.getContent(), "UTF-8")); 
 String line = null; 
 if (entity.getContentLength() > 0) { 
 strBuf = new StringBuffer((int) entity.getContentLength()); 
 while ((line = reader.readLine()) != null) { 
 strBuf.append(line); 
 } 
 } 
 } 
 if (entity != null) { 
 nsumeContent(); 
 } 
 } 
 //将url标记为已访问 
 markUrlAsVisited(url); 
 return strBuf.toString(); 
}
public static boolean isContentRelevant(String content, 
Pattern regexpPattern) { 
 boolean retValue = false; 
 if (content != null) { 
 //是否符合正则表达式的条件 
 Matcher m = regexpPattern.matcher(content.toLowerCase()); 
 retValue = m.find(); 
 } 
 return retValue; 
}
public List extractUrls(String text, CrawlerUrl crawlerUrl) { 
 Map urlMap = new HashMap(); 
 extractHttpUrls(urlMap, text); 
 extractRelativeUrls(urlMap, text, crawlerUrl); 
 return new ArrayList(urlMap.keySet()); 

private void extractHttpUrls(Map urlMap, String text) { 
 Matcher m = (text); 
 while (m.find()) { 
 String url = m.group(); 
 String[] terms = url.split("a href=""); 
 for (String term : terms) { 
 // System.out.println("Term = " + term); 
 if (term.startsWith("http")) { 
 int index = term.indexOf("""); 
 if (index > 0) { 
 term = term.substring(0, index); 
 } 
 urlMap.put(term, term); 
 System.out.println("Hyperlink: " + term); 
 } 
 } 
 } 

private void extractRelativeUrls(Map urlMap, String text, 
 CrawlerUrl crawlerUrl) { 
 Matcher m = relativeRegexp.matcher(text); 
 URL textURL = crawlerUrl.getURL(); 
 String host = textURL.getHost(); 
 while (m.find()) { 
 String url = m.group(); 
 String[] terms = url.split("a href=""); 
 for (String term : terms) { 
 if (term.startsWith("/")) { 
 int index = term.indexOf("""); 
 if (index > 0) { 
 term = term.substring(0, index); 
 } 
 String s = //" + host + term; 
 urlMap.put(s, s); 
 System.out.println("Relative url: " + s); 
 } 
 } 
 } 
 
}
public static void main(String[] args) { 
 try { 
 String url = ""; 
 Queue urlQueue = new LinkedList(); 
 String regexp = "java"; 
 urlQueue.add(new CrawlerUrl(url, 0)); 
 NaiveCrawler crawler = new NaiveCrawler(urlQueue, 100, 5, 1000L, 
 regexp); 
 // boolean allowCrawl = crawler.areWeAllowedToVisit(url); 
 // System.out.println("Allowed to crawl: " + url + " " + 
 // allowCrawl); 
 crawler.crawl(); 
 } catch (Throwable t) { 
 System.out.println(t.toString()); 
 t.printStackTrace(); 
 } 
}

6.java 网络爬虫怎么实现


  网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。
 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。对于垂直搜索来说,聚焦爬虫,即有针对性地爬取特定主题网页的爬虫,更为适合。
 以下是一个使用java实现的简单爬虫核心代码: 
public void crawl() throws Throwable { 
 while (continueCrawling()) { 
 CrawlerUrl url = getNextUrl(); //获取待爬取队列中的下一个URL 
 if (url != null) { 
 printCrawlInfo(); 
 String content = getContent(url); //获取URL的文本信息 
 
 //聚焦爬虫只爬取与主题内容相关的网页,这里采用正则匹配简单处理 
 if (isContentRelevant(content, this.regexpSearchPattern)) { 
 saveContent(url, content); //保存网页至本地 
 
 //获取网页内容中的链接,并放入待爬取队列中 
 Collection urlStrings = extractUrls(content, url); 
 addUrlsToUrlQueue(url, urlStrings); 
 } else { 
 System.out.println(url + " is not relevant ignoring ..."); 
 } 
 
 //延时防止被对方屏蔽 
 Thread.sleep(this.delayBetweenUrls); 
 } 
 } 
 closeOutputStream(); 
}
private CrawlerUrl getNextUrl() throws Throwable { 
 CrawlerUrl nextUrl = null; 
 while ((nextUrl == null) && (!urlQueue.isEmpty())) { 
 CrawlerUrl crawlerUrl = this.urlQueue.remove(); 
 //doWeHavePermissionToVisit:是否有权限访问该URL,友好的爬虫会根据网站提供的"Robot.txt"中配置的规则进行爬取 
 //isUrlAlreadyVisited:URL是否访问过,大型的搜索引擎往往采用BloomFilter进行排重,这里简单使用HashMap 
 //isDepthAcceptable:是否达到指定的深度上限。爬虫一般采取广度优先的方式。一些网站会构建爬虫陷阱(自动生成一些无效链接使爬虫陷入死循环),采用深度限制加以避免 
 if (doWeHavePermissionToVisit(crawlerUrl) 
 && (!isUrlAlreadyVisited(crawlerUrl)) 
 && isDepthAcceptable(crawlerUrl)) { 
 nextUrl = crawlerUrl; 
 // System.out.println("Next url to be visited is " + nextUrl); 
 } 
 } 
 return nextUrl; 
}
private String getContent(CrawlerUrl url) throws Throwable { 
 //HttpClient4.1的调用与之前的方式不同 
 HttpClient client = new DefaultHttpClient(); 
 HttpGet httpGet = new HttpGet(url.getUrlString()); 
 StringBuffer strBuf = new StringBuffer(); 
 HttpResponse response = client.execute(httpGet); 
 if (HttpStatus.SC_OK == response.getStatusLine().getStatusCode()) { 
 HttpEntity entity = response.getEntity(); 
 if (entity != null) { 
 BufferedReader reader = new BufferedReader( 
 new InputStreamReader(entity.getContent(), "UTF-8")); 
 String line = null; 
 if (entity.getContentLength() > 0) { 
 strBuf = new StringBuffer((int) entity.getContentLength()); 
 while ((line = reader.readLine()) != null) { 
 strBuf.append(line); 
 } 
 } 
 } 
 if (entity != null) { 
 nsumeContent(); 
 } 
 } 
 //将url标记为已访问 
 markUrlAsVisited(url); 
 return strBuf.toString(); 
}
public static boolean isContentRelevant(String content, 
Pattern regexpPattern) { 
 boolean retValue = false; 
 if (content != null) { 
 //是否符合正则表达式的条件 
 Matcher m = regexpPattern.matcher(content.toLowerCase()); 
 retValue = m.find(); 
 } 
 return retValue; 
}
public List extractUrls(String text, CrawlerUrl crawlerUrl) { 
 Map urlMap = new HashMap(); 
 extractHttpUrls(urlMap, text); 
 extractRelativeUrls(urlMap, text, crawlerUrl); 
 return new ArrayList(urlMap.keySet()); 

private void extractHttpUrls(Map urlMap, String text) { 
 Matcher m = (text); 
 while (m.find()) { 
 String url = m.group(); 
 String[] terms = url.split("a href=""); 
 for (String term : terms) { 
 // System.out.println("Term = " + term); 
 if (term.startsWith("http")) { 
 int index = term.indexOf("""); 
 if (index > 0) { 
 term = term.substring(0, index); 
 } 
 urlMap.put(term, term); 
 System.out.println("Hyperlink: " + term); 
 } 
 } 
 } 

private void extractRelativeUrls(Map urlMap, String text, 
 CrawlerUrl crawlerUrl) { 
 Matcher m = relativeRegexp.matcher(text); 
 URL textURL = crawlerUrl.getURL(); 
 String host = textURL.getHost(); 
 while (m.find()) { 
 String url = m.group(); 
 String[] terms = url.split("a href=""); 
 for (String term : terms) { 
 if (term.startsWith("/")) { 
 int index = term.indexOf("""); 
 if (index > 0) { 
 term = term.substring(0, index); 
 } 
 String s = //" + host + term; 
 urlMap.put(s, s); 
 System.out.println("Relative url: " + s); 
 } 
 } 
 } 
 
}
public static void main(String[] args) { 
 try { 
 String url = ""; 
 Queue urlQueue = new LinkedList(); 
 String regexp = "java"; 
 urlQueue.add(new CrawlerUrl(url, 0)); 
 NaiveCrawler crawler = new NaiveCrawler(urlQueue, 100, 5, 1000L, 
 regexp); 
 // boolean allowCrawl = crawler.areWeAllowedToVisit(url); 
 // System.out.println("Allowed to crawl: " + url + " " + 
 // allowCrawl); 
 crawler.crawl(); 
 } catch (Throwable t) { 
 System.out.println(t.toString()); 
 t.printStackTrace(); 
 } 
}

以上就是关于「如何编写网络爬虫」的全部内容,本文讲解到这里啦,希望对大家有所帮助。如果你还想了解更多这方面的信息,记得收藏关注本站~

『*文章★来自Win10系统之家www.ghost580.net,转载请联系本站网管!』

相关文章

  • 如何编写网络爬虫

    如何编写网络爬虫

    1.什么是网络爬虫以及怎么做?网络爬虫:是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。做法:传统爬虫从一个或若干初始网页的url开始,获得初...
  • 如何查看网络是否丢包

    如何查看网络是否丢包

    1.怎么查看网络丢包率.正常丢包率是多少.?点开始--运行-然后输入ping218.85.157.99-t追问:我知道ping.我是要丢包率...ping出来的东西我又看不懂..有什么用..我知道Requesttimedout是代表丢包了...我要丢包率..丢包...
  • 电信卡如何设置网络

    电信卡如何设置网络

    1.电信手机的网络设置怎么设置????对手机的接入点参数进行自动设置。点击“一键设置APN信息”或者“手动设置APN信息”,选择“中国电信”运营商就可以设置好了中国电信的接入点。设置方法如下:1、在手机里插入中国电信和中国...
  • 如何编写项目方案

    如何编写项目方案

    1.如何编写项目策划方案回答1.项目计划要围绕项目目标结构化地全面展开项目计划是围绕项目目标,结合企业内、外的可用资源状况进行策划,以结构化的方式全面展开,确保项目目标的实现具有可行性。它的核心是要回答“HOW”...