java如何获取浏览器的访问网址及其内容

Python014

java如何获取浏览器的访问网址及其内容,第1张

通过request俩获取,以下是request的方法介绍:

getParameterNames:取得客户端所发出的请求参数名称.

getParameter:可以让您指定请求参数名称,以取得对应的设定值.

getServerName:请求的服务器.

getProtocol:使用协议.

getMethod:请求方法.

getServerPort:请求端口号.

getContextPath:Context路径.

getServletPath: Servlet路径.

getRequestURI:URI路径.

getQueryString:查询字符串.

getRemoteAddr:使用者主机IP.

getRemotePort:使用者使用端口号.追问

我的意思是:例如,你正在上网,然后我通过这个就可以知道你上的什么网站,什么内容。

还有上边的如果行。

请问它在那个包里?

JAVA中的类是具备某些共同特征的实体的集合,它是一种抽象的概念,用程序设计的语言来说,类是一种抽象的数据类型,它是对所具有相同特征实体的抽象。所谓对象就是真实世界中的实体,对象与实体是一一对应的,也就是说现实世界中每一个实体都是一个对象,对象是一种具体的概念。JAVA类打开网页有以下方法:

1、java.net.URI uri = new java.net.URI("http://www.baidu.com")

java.awt.Desktop.getDesktop().browse(uri)

2、Runtime.getRuntime().exec("rundll32 url.dll,FileProtocolHandler http://www.baidu.com")

这两种方法是可以打开,不过只能在服务端打开,如果有另一台机器访问我的机器,执行上边的程序后,也会在我本机显示baidu的页面

3、如果是让他自动打开可以用robot类模拟鼠标单击右键双击等动作,还可以模拟输入。

4、如果要在网页做复杂操作可以用swt做一个浏览器,可以控制他执行网站里的脚本,这个比较难点。

1、Jsoup简述

Java中支持的爬虫框架有很多,比如WebMagic、Spider、Jsoup等。

​ Jsoup拥有十分方便的api来处理html文档,比如参考了DOM对象的文档遍历方法,参考了CSS选择器的用法等等,因此我们可以使用Jsoup快速地掌握爬取页面数据的技巧。

2、快速开始

1)分析HTML页面,明确哪些数据是需要抓取的

2)使用HttpClient读取HTML页面

HttpClient是一个处理Http协议数据的工具,使用它可以将HTML页面作为输入流读进java程序中.

3)使用Jsoup解析html字符串

通过引入Jsoup工具,直接调用parse方法来解析一个描述html页面内容的字符串来获得一个Document对象。该Document对象以操作DOM树的方式来获得html页面上指定的内容。

3、保存爬取的页面数据

1)保存普通数据到数据库中

将爬取的数据封装进实体Bean中,并存到数据库内。

2)保存图片到服务器上

直接通过下载图片的方式将图片保存到服务器本地。