一、获取数据

想弄一个数据库,由于需要一些人名,所以就去百度一下,然后发现了360图书馆中有很多人名

然后就像去复制一下,发现复制不了,需要登陆

此时f12查看源码是可以复制的,不过就算可以复制想要插入数据也是很麻烦的。既然复制走不通,于是我抱着探索知识的精神,打开了Visual Studio

首先我们需要先拿到整个页面的数据,此时的话可以使用WebClient对象来获取数据(HttpWebRequest方式稍微有点麻烦),然后使用byte数组来接受一下返回值

public static void GetData(String address)
{
    WebClient wc = new WebClient();
    byte[] htmlData = wc.DownloadData(address);
}

此时需要将htmlData对象解码为String对象,然后我们在网站中f12看一下解码方式

可以看到charset=utf-8,说明需要用utf-8来解码,然后使用Encoding对象来解码

string html = Encoding.UTF8.GetString(htmlData);

我们输出一下html有没有值

static void Main(string[] args)
{
    //将地址复制过来
    GetData("http://www.360doc.com/content/18/1010/13/642066_793541226.shtml");
    Console.ReadKey();
}

public static void GetData(String address)
{
    WebClient wc = new WebClient();
    //地址由调用时传入
    byte[] htmlData = wc.DownloadData(address);

    string html = Encoding.UTF8.GetString(htmlData);

    Console.WriteLine(html);

}

输出:

二、Regex匹配

接下来就是匹配的问题了,首先看一下html文档的结构

就是说只需要匹配到所有的p标签,然后拿到其中的内容就行了

第一种想到的就是使用正则表达式匹配:

public static void GetData(String address)
{
    WebClient wc = new WebClient();
    //地址由调用时传入
    byte[] htmlData = wc.DownloadData(address);

    string html = Encoding.UTF8.GetString(htmlData);

    //使用正则表达式匹配    <p或P>非空字符至少100个<P或p>
    Regex reg = new Regex("<[pP]>\\S{100,}</[Pp]>");
    //接受所有匹配到的项
    MatchCollection result = reg.Matches(html);
    //循环输出
    foreach (Match item in result)
    {
        Console.WriteLine(item.Value);
    }
}

调用不变,启动:

匹配到是匹配到了,但是我们把<p></p>标签也匹配出来了,所以把正则表达式改进一下,使用组匹配,将p标签中的内容单独匹配出来(当然也可以截取字符串)。也就是说在写正则表达式时,将想要单独匹配出来的数据用括号”(想要单独匹配出来的数据)”括起来,来看一下怎么写:

Regex reg = new Regex("<[pP]>(\\S{100,})</[Pp]>");

然后如果想要拿数据的话,需要使用Match对象的Groups属性通过索引来获取匹配到的组:

public static void GetData(String address)
{
    WebClient wc = new WebClient();
    //地址由调用时传入
    byte[] htmlData = wc.DownloadData(address);

    string html = Encoding.UTF8.GetString(htmlData);

    //使用正则表达式组匹配    <p或P>(非空字符至少100个)<P或p>
    Regex reg = new Regex("<[pP]>(\\S{100,})</[Pp]>");
    
    //接受所有匹配到的项
    MatchCollection result = reg.Matches(html);
    //循环输出
    foreach (Match item in result)
    {
        //0的话是整体匹配到的字符串对象
        //1就是第一个匹配到的组(\\S{100,)
        Console.WriteLine(item.Groups[1]);
    }
}

输出结果:

这次p标签就没有被匹配进入组中(如果通过item.Groups[0]拿到的回是和上面匹配到一样的数据,会带p标签)

匹配到了之后就可以使用item.Groups[1].Split(‘、’)来将字符串分割为String数组,然后循环写入数据库,或者进行其他操作。

三、HTML解析器NSoup

虽然正则表达式也可以匹配,但是如果对正则表达式比较陌生的话,可能就不是友好了。如果有方法可以像用js操作html元素一样,用C#操作html字符串,就非常棒了。NSoup就是可以做到解析html字符串,变成可操作的对象。

首先使用前先在管理NuGet程序包中添加:NSoup,直接就可以搜索到,添加完成之后接下来就看一下如何使用

使用NSoupClient.Parse(放入html代码:<html>….</html>)创建一个声明Docuemnt文档对象:

//声明Document对象
Document doc = NSoupClient.Parse(html);

第二种就是使用Document doc = NSoupClient.Connect(放入url)    .Get()/.Post(),然后他就会自动获取url地址的html代码,并且根据html代码加载一个Document对象

//通过url自动加载Document对象
Document doc = NSoupClient.Connect(address).Get();

当然还有其他方式获取,然后我们看一下如何使用Document对象

//通过id获取元素
//获取id为form的元素
Element form = doc.GetElementById("form");
//通过标签名获取元素
//获取所有的p标签
Elements p = doc.GetElementsByTag("p");
//通过类样式获取元素 
//获取类样式为btn的元素
Elements c = doc.GetElementsByClass("btn");
//通过属性获取
//获取包含style属性的元素
Elements attr =  doc.GetElementsByAttribute("style");

也可以自己组合一些其他的嵌套操作,例如:

获取id为artContent下的所有p标签

//使用链式编程
//获取id为artContent下的所有p标签
Elements ps = doc.GetElementById("artContent").GetElementsByTag("p");
//等同于
//Element artContent = doc.GetElementById("artContent");
//Elements ps = artContent.GetElementsByTag("p");

元素方法的使用:

//Elements是Element元素的集合     多了个s
//Element对象的方法
Element id = doc.GetElementById("id");
//获取或设置id元素的文本
id.Text();
//获取或设置id元素的html代码
id.Html();
//获取或设置id元素的value值
id.Val();

都是像js操作html元素一样的方法,而且方法的名字也很人性,基本上一看就会知道方法是什么意思,方法也太多了就不一一讲了。

然后我们来使用NSoup获取所有的名字,来试一下就会发现很简单了:

 方式一:

public static void GetData(String address)
{
    WebClient wc = new WebClient();

    byte[] htmlData = wc.DownloadData(address);

    string html = Encoding.UTF8.GetString(htmlData);

    Document doc = NSoupClient.Parse(html);
    //先获取id为artContent的元素,再获取所有的p标签
    Elements p = doc.GetElementById("artContent").GetElementsByTag("p");

    foreach (Element item in p)
    {
        Console.WriteLine(item.Text());
    }

}

方式二:

public static void GetData(String address)
{
    //直接通过url来获取Document对象
    Document doc = NSoupClient.Connect(address).Get();
    //先获取id为artContent的元素,再获取所有的p标签
    Elements p = doc.GetElementById("artContent").GetElementsByTag("p");

    foreach (Element item in p)
    {
        Console.WriteLine(item.Text());
    }

}

运行结果都是一样的

总结:效率的话不太了解就不做评价了,就简单说一下优缺点:使用正则表达式的话,需要对正则表达式有一定的熟悉,然后匹配数据的话也是很方便的,但是修改、添加、删除的话就不是太方便了;使用HTMl解析器(HtmlAgilityPack、NSoup)的话操作起来明显更方便一些,如果对js有一定的基础,html解析器根本不需要大学习就可以熟练使用,然后对元素进行修改、添加、删除、获取都是非常方便的,不过如果对于未知的html结构就不是太友好了,例如:如果获取页面上所有的http://www.baidu.com这类的地址的话,使用正则就会更好一些。

 

 

版权声明:本文为ckka原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/ckka/p/11423061.html