1.求用JAVA编写一个网络爬虫的程序
import java.awt.*;
import java.awt.event.*;
import java.io.*;
import java.net.*;
import java.util.*;
import java.util.regex.*;
import javax.swing.*;
import javax.swing.table.*;//一个Web的爬行者(注:爬行在这里的意思与抓取,捕获相同)
public class SearchCrawler extends JFrame{
//最大URL保存值
private static final String[] MAX_URLS={"50","100","500","1000"};
//缓存robot禁止爬行列表
private HashMap disallowListCache=new HashMap();
//搜索GUI控件
private JTextField startTextField;
private JComboBox maxComboBox;
private JCheckBox limitCheckBox;
private JTextField logTextField;
private JTextField searchTextField;
private JCheckBox caseCheckBox;
private JButton searchButton;
//搜索状态GUI控件
private JLabel crawlingLabel2;
private JLabel crawledLabel2;
private JLabel toCrawlLabel2;
private JProgressBar progressBar;
private JLabel matchesLabel2;
//搜索匹配项表格列表
private JTable table;
//标记爬行机器是否正在爬行
private boolean crawling;
//写日志匹配文件的引用
private PrintWriter logFileWriter;
//网络爬行者的构造函数
public SearchCrawler(){
//设置应用程序标题栏
setTitle("搜索爬行者");
//设置窗体大小
setSize(600,600);
//处理窗体关闭事件
addWindowListener(new WindowAdapter(){
public void windowClosing(WindowEvent e){
actionExit();
}
});
//设置文件菜单
JMenuBar menuBar=new JMenuBar();
JMenu fileMenu=new JMenu("文件");
fileMenu.setMnemonic(KeyEvent.VK_F);
JMenuItem fileExitMenuItem=new JMenuItem("退出",KeyEvent.VK_X);
fileExitMenuItem.addActionListener(new ActionListener(){
public void actionPerformed(ActionEvent e){
actionExit();
}
});
fileMenu.add(fileExitMenuItem);
menuBar.add(fileMenu);
setJMenuBar(menuBar);
2.java 网络爬虫怎么实现
网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。
传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。对于垂直搜索来说,聚焦爬虫,即有针对性地爬取特定主题网页的爬虫,更为适合。
以下是一个使用java实现的简单爬虫核心代码: public void crawl() throws Throwable { while (continueCrawling()) { CrawlerUrl url = getNextUrl(); //获取待爬取队列中的下一个URL if (url != null) { printCrawlInfo(); String content = getContent(url); //获取URL的文本信息 //聚焦爬虫只爬取与主题内容相关的网页,这里采用正则匹配简单处理 if (isContentRelevant(content, this.regexpSearchPattern)) { saveContent(url, content); //保存网页至本地 //获取网页内容中的链接,并放入待爬取队列中 Collection urlStrings = extractUrls(content, url); addUrlsToUrlQueue(url, urlStrings); } else { System.out.println(url + " is not relevant ignoring 。"); } //延时防止被对方屏蔽 Thread.sleep(this.delayBetweenUrls); } } closeOutputStream(); }private CrawlerUrl getNextUrl() throws Throwable { CrawlerUrl nextUrl = null; while ((nextUrl == null) && (!urlQueue.isEmpty())) { CrawlerUrl crawlerUrl = this.urlQueue.remove(); //:是否有权限访问该URL,友好的爬虫会根据网站提供的"Robot.txt"中配置的规则进行爬取 //isUrlAlreadyVisited:URL是否访问过,大型的搜索引擎往往采用BloomFilter进行排重,这里简单使用HashMap //isDepthAcceptable:是否达到指定的深度上限。
爬虫一般采取广度优先的方式。一些网站会构建爬虫陷阱(自动生成一些无效链接使爬虫陷入死循环),采用深度限制加以避免 if ((crawlerUrl) && (!isUrlAlreadyVisited(crawlerUrl)) && isDepthAcceptable(crawlerUrl)) { nextUrl = crawlerUrl; // System.out.println("Next url to be visited is " + nextUrl); } } return nextUrl; }private String getContent(CrawlerUrl url) throws Throwable { //HttpClient4.1的调用与之前的方式不同 HttpClient client = new DefaultHttpClient(); HttpGet ");
HttpURLConnection .*;import java.util.*;import java.util.regex.*;import javax.swing.*;import javax.swing.table.*;//一个Web的爬行者(注:爬行在这里的意思与抓取,捕获相同)public class SearchCrawler extends JFrame{//最大URL保存值private static final String[] MAX_URLS={"50","100","500","1000"};//缓存robot禁止爬行列表private HashMap disallowListCache=new HashMap();//搜索GUI控件private JTextField startTextField;private JComboBox maxComboBox;private JCheckBox limitCheckBox;private JTextField logTextField;private JTextField searchTextField;private JCheckBox caseCheckBox;private JButton searchButton;//搜索状态GUI控件private JLabel crawlingLabel2;private JLabel crawledLabel2;private JLabel toCrawlLabel2;private JProgressBar progressBar;private JLabel matchesLabel2;//搜索匹配项表格列表private JTable table;//标记爬行机器是否正在爬行private boolean crawling;//写日志匹配文件的引用private PrintWriter logFileWriter;//网络爬行者的构造函数public SearchCrawler(){//设置应用程序标题栏setTitle("搜索爬行者");//设置窗体大小setSize(600,600);//处理窗体关闭事件addWindowListener(new WindowAdapter(){public void windowClosing(WindowEvent e){actionExit();}});//设置文件菜单JMenuBar menuBar=new JMenuBar();JMenu fileMenu=new JMenu("文件");fileMenu.setMnemonic(KeyEvent.VK_F);JMenuItem fileExitMenuItem=new JMenuItem("退出",KeyEvent.VK_X);fileExitMenuItem.addActionListener(new ActionListener(){public void actionPerformed(ActionEvent e){actionExit();}});fileMenu.add(fileExitMenuItem);menuBar.add(fileMenu);setJMenuBar(menuBar);。
5.java写网络爬虫,如何爬取在同一个网页中,但是已经被隐藏的div(需
这种是用js实现的。所以后面的内容实际上是动态生成的,网络爬虫抓取的是静态页面。
至于解决办法,网上有几种:
一种是使用自动化测试工具去做,比如selenium,可以模拟点击等操作,但是这个其实和爬虫还是有很大区别的。
二是利用特定的类库在后端调用js,python的倒是有,但是java的我就不清楚了。
三是自己找到相关的页面的js代码,分析出来相关的请求url,直接调新的url就行了,但是一般的js都是加密压缩的,但是你可以试试。
6.如何用java实现网络爬虫抓取页面内容
下面的工具都可以实现java爬虫
JDK原生的类:HttpURLConnection
HttpURLConnection : 优点是 jdk自带, 速度较快. 缺点是方法较少, 复杂一点的功能自己实现起来往往要大量的代码.
第三方的爬虫工具:
JSOUP,HttpClient,HttpUnit
一般情况是HttpClient+ JSOUP配合完成爬取.
HttpClient 获取页面. JSOUP解析网页, 得到数据
HttpUnit:相当于无界面的浏览器,缺点是内存占用较大,速度较慢. 优点是能执行js, 功能强大
7.java制作一个网络内容爬虫
1.你需要的不是 网络爬虫。
而只是网站抓取而已。 2 . 用 JDK 的 HttpURLConnection或者apache 的 HttpClient 组件就好了。
附件也是 资源, 只要有地址, 就可以通过 HttpURLConnection con = new HttpURLConnection (url);conn.connect();InputStream is = conn.getInputStream();//这样就好了。所有链接页面的内容如何提取 . 你需要抓取到网页之后, 对网页内的连接进行分析, 然后分别请求这些页面, 抓取这些连接内容。
如何根据日期来提取,比如某个频道下,5月1号到31号的内容。网页抓取, 只能对页面进行抓取。
如果他有这个查询条件 并且有这个显示 1号 到31 号内容的页面,你才可以抓取到。
转载请注明出处育才学习网 » java怎么写网络爬虫