博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
数据结构化与保存
阅读量:6595 次
发布时间:2019-06-24

本文共 2171 字,大约阅读时间需要 7 分钟。

1. 将新闻的正文内容保存到文本文件。

def writeDetailNews(content):    f = open('gzccnews.txt',"a",encoding="utf-8")    f.write(content)    f.close()

2. 将新闻数据结构化为字典的列表:

  • 单条新闻的详情-->字典news
  • 一个列表页所有单条新闻汇总-->列表newsls.append(news)
  • 所有列表页的所有新闻汇总列表newstotal.extend(newsls)
#获取新闻详情def getNewDetail(newsDetailUrl):    detail_res = requests.get(newsDetailUrl)    detail_res.encoding = "utf-8"    detail_soup = BeautifulSoup(detail_res.text, "html.parser")    news={}    news['title'] = detail_soup.select(".show-title")[0].text    info = detail_soup.select(".show-info")[0].text    news['date_time'] = datetime.strptime(info.lstrip('发布时间:')[:19], "%Y-%m-%d %H:%M:%S")    if info.find('来源:')>0:        news['source'] = info[info.find("来源:"):].split()[0].lstrip('来源:')    else:        news['source'] = 'none'    news['content'] = detail_soup.select("#content")[0].text.strip();    writeDetailNews(news['content'])    news['click'] = getClickCount(newsDetailUrl)    news['newsUrl'] = newsDetailUrl    return(news)

3. 安装pandas,用pandas.DataFrame(newstotal),创建一个DataFrame对象df.

import pandasnewstotal = [{}]df = pandas.DataFrame(newstotal)

4. 通过df将提取的数据保存到csv或excel 文件。

import openpyxldf.to_excel('gzccnews.xlsx')

5. 用pandas提供的函数和方法进行数据分析:

  • 提取包含点击次数、标题、来源的前6行数据
  • print(df[['title','clickCount','source']][:6])
  • 提取‘学校综合办’发布的,‘点击次数’超过3000的新闻。
  • print(df[(df['clickCount']>3000)&(df['source']=='学校综合办')])
  • 提取'国际学院'和'学生工作处'发布的新闻。
  • new = ['国际学院','学生工作处']print(df[df['source'].isin(new )])
  • 进取2018年3月的新闻
  • news = df.set_index('time')print(news['2018-03'])

6. 保存到sqlite3数据库

import sqlite3

with sqlite3.connect('gzccnewsdb.sqlite') as db:
df3.to_sql('gzccnews05',con = db, if_exists='replace')

7. 从sqlite3读数据

with sqlite3.connect('gzccnewsdb.sqlite') as db:

df2 = pandas.read_sql_query('SELECT * FROM gzccnews05',con=db)
print(df2)

8. df保存到mysql数据库

安装SQLALchemy

安装PyMySQL
MySQL里创建数据库:create database gzccnews charset utf8;

import pymysql

from sqlalchemy import create_engine
conn = create_engine('mysql+pymysql://root:root@localhost:3306/gzccnews?charset=utf8')
pandas.io.sql.to_sql(df, 'gzccnews', con=conn, if_exists='replace')

MySQL里查看已保存了数据。(通过MySQL Client或Navicate。)

转载于:https://www.cnblogs.com/2439466501qq/p/8869752.html

你可能感兴趣的文章
javascript不可用的问题探究
查看>>
[置顶] jQuery乱谈(五)
查看>>
have sth done/doing的区别
查看>>
paste用法
查看>>
《java开发实战经典》读书笔记——第3章 Java基础程序设计之数据类型划分20151026...
查看>>
C. Tanya and Toys_模拟
查看>>
Swift 表达式
查看>>
iOS - iOS 适配
查看>>
JS实例(一)百度前端技术学院任务(十三)
查看>>
DEBUG(2)--函数的输入参数要做适当的检查
查看>>
1.python基础语法
查看>>
Kafka学习-Producer和Customer
查看>>
js适配器模式
查看>>
社会网络分析之”组成部分”、小圈子和聚类
查看>>
ORA-16019搭建DG设置归档线程参数报错
查看>>
xocde7下导入libsqlite3.tbd编译报错的解决办法
查看>>
100c之39:年龄问题
查看>>
吴忠军人民微博主页
查看>>
java 浅复制 深复制
查看>>
day09 函数
查看>>