Python数据分析之爬虫第三练:怎么把爬取到的数据存入数据库

Python数据分析之爬虫第三练:怎么把爬取到的数据存入数据库

技术教程gslnedu2025-02-26 10:53:4713A+A-

应用背景

我们爬取数据的目的肯定不是单纯地为爬而爬,终极目标还是需要把这些数据用起来。毋庸置疑,数据被应用的大前提就是先要按需求被保存。如何保存呢?

保存成本地文件?没问题,当然可以,对于不熟悉数据库的用户来说这是一个非常好的方案。但是对于大数据环境下的数据应用而言,就不能不利用数据库了。

数据库的好,谁用谁知道!那么,如何把爬取到的数据存入到数据库呢?以下enjoy~~~

python数据库基础

本文以单机版的mysql为例,其他的数据库本质相同,有兴趣的同学可以自行百度呦(读者:讨厌,又是自己百度,难道就不能一次说全么!笔者:额,还是自己百度吧,数据分析的基本技能之一就是多动手~~~)。


1 MySQL安装和配置

教程可参阅:
https://www.cnblogs.com/laumians-notes/p/9069498.html
,需要注意的是cmd需要以管理员身份运行,避免出现命令被拒绝执行的问题

2 MySQL连接工具SQLyog安装

本文使用是SQLyog,之所以选择这个,是因为可以导出表结构,具体的信息可以自己百度下。不过鄙人在安装时,遇到报错信息:plugin caching_sha2_password could not be loaded,这个问题的处理可参阅:
https://blog.csdn.net/qq_54202620/article/details/122729704 。

3 Python连接MySQL

本文使用的是pymysql库,在Jupyter中可以通过下面的方式安装,命令行工具直接pip即可。

!pip install pymysql  # Jupyter中安装使用!pip install xxx

安装完毕后,就可以导入使用,代码示例如下所示。

import pymysql  # 导入工具包

# 通过pymysql.connect()函数连接数据库
db = pymysql.connect(host='localhost',   # MySQL服务器地址
                     port=3306,   # 数据库的端口
                     user='root',  # 数据库的用户名
                     password='123456',   # 数据库的密码
                     database='python_data',   # 数据库名称
                     charset='gb2312')  # 编码方式
cur = db.cursor()  # 模拟执行SQL语句的固定写法,只有引入会话指针后才能接着调用SQL语句
sql = 'INSERT INTO shlpractice1(company, title, href, source, date) VALUES (%s, %s, %s, %s, %s)'
# %s称为占位符,有几个元素就写几个%s。每一个%s代表一个字符串,之后可以传入相应的具体内容 
cur.execute(sql, (company, title[i], href[i], source[i], date[i]))  # 执行SQL语句并传入相应的内容
db.commit()  # 更新数据表的固定写法
# 最后需要关闭之前引入的会话指针cur和数据库连接
cur.close()
db.close()    

完整代码

'''
## =========================================
## Title:  3.2 用Python存储数据到数据库
## Author: 职教之光
## Date:   2022-04-29
## ==========================================
'''

#!/usr/bin/python
# -*- coding: UTF-8 -*-

import os

os.chdir('D:/3.DA/Finance Bigdata mining and analysis with Python')  # 变更工作目录
print('项目工作目录为:\n%s'% os.getcwd())  # 获取当前工作目录
print(66 * '-')  #  分割线

import requests
import re
import pymysql
import time

# UA代表访问网站的浏览器是哪种浏览器,可以通过在地址栏中输入“about:version”获取
# “\”是行连接符,
headers = {'User-Agent':
          'Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
           AppleWebkit/537.36 (KHTML, like Gecko) \
           Chrome/100.0.4896.127 Safari/537.36'}  

def baiduinfo(company, page):
    num = (page - 1) * 10  # 参数规律是(页数-1)*10
    url = 'https://www.baidu.com/s?tn=news&rtt=1&bsst=1&cl=2&wd=' + company + '&pn=' + str(num)
    web = requests.get(url, headers=headers, timeout=10).text  # 设置超时为10s,避免程序挂死
    # print(url)

    page_href = '

', '', title[i]) # 核心,用re.sub()函数来替换不重要的内容 print(str(i + 1) + '.' + title[i] + '(' + date[i] + '-' + source[i] + ')') print(href[i]) # 将数据存入数据库 for i in range(len(title)): db = pymysql.connect(host='localhost', port=3306, user='root', password='123456', database='python_data', charset='gb2312') cur = db.cursor() sql = 'INSERT INTO shlpractice1(company, title, href, source, date) VALUES (%s, %s, %s, %s, %s)' cur.execute(sql, (company, title[i], href[i], source[i], date[i])) db.commit() cur.close() db.close() companys = ['北京科锐', '新世界'] # 为了防止程序因为偶然的异常而终止运行,使用try/except异常处理语句 for company in companys: for i in range(5): try: baiduinfo(company, i+1) # i是从0开始的序号,所以要写成i+1表示第几页 print(company + '第' + str(i+1) + '页爬取成功!') except: print(company + '百度新闻爬取失败!')

这一坨代码执行成功的结果打印如下,数据库中的记录见上面SQLyog的示意图。

一起动手练

下面又到了动动手环节,小伙伴们,一起敲起来呦~~~

欢迎交流与探讨!

点击这里复制本文地址 以上内容由朽木教程网整理呈现,请务必在转载分享时注明本文地址!如对内容有疑问,请联系我们,谢谢!
qrcode

朽木教程网 © All Rights Reserved.  蜀ICP备2024111239号-8