代码拉取完成,页面将自动刷新
# -*- coding: utf-8 -*-
'''
Created on 2016-12-16
@author: Sawatari
'''
import os
from scrapy import cmdline
from Tkinter import *
def startSpider():
# 获取文本框内容
keyword = var.get()
# 关键字保存至临时文件
temp = open('tempkey.temp', 'w')
temp.write(keyword.encode(sys.getfilesystemencoding()))
temp.close()
# 清空goods.csv
if os.path.exists( 'results.csv'):
csvfile = open('results.csv', 'w')
csvfile.truncate()
# 开始爬虫程序
cmdline.execute("scrapy crawl WeiboCrawler".split())
reload(sys)
sys.setdefaultencoding('utf8')
root = Tk()
root.title("WeiboCrawler")
# 高宽均不可变
root.resizable(width=False, height=False)
Label(root, text=' ').grid(row=0)
# Label
Label(root, text='输入微博搜索关键字:').grid(row=1)
# 关键字输入框
var = StringVar()
e = Entry(root, textvariable=var).grid(row=2)
# 确认按钮
Button(root, text="开始查询", command=startSpider).grid(row=3)
Label(root, text=' ').grid(row=5, column=0)
# 说明
Label(root, text='结果输出表格文件位于项目根目录“results.csv”').grid(row=6)
Label(root, text='© 2017 Ka Tou').grid(row=7)
# 进入消息循环
root.mainloop()
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。