摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/14013525.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11518 Github:http 阅读全文
posted @ 2020-11-23 22:36 ╮兲兲快泺╭ 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 1、基本情况: 组长博客链接:https://www.cnblogs.com/fzucsx/p/14010108.html 答辩总结: 为完成团队项目,每个组员都付出了自己的努力和汗水,虽然历经坎坷但最终迎难而上。即使每个人的技能、积极性和工作态度各异,但都在Alpha冲刺中得到了成长。 全组讨论的 阅读全文
posted @ 2020-11-22 21:28 ╮兲兲快泺╭ 阅读(55) 评论(0) 推荐(0) 编辑
摘要: #作业① ##1)要求: 熟练掌握 Selenium 查找HTML元素、爬取Ajax网页数据、等待HTML元素等内容。 使用Selenium框架爬取京东商城某类商品信息及图片。 候选网站:http://www.jd.com/ 代码部分 from selenium import webdriver f 阅读全文
posted @ 2020-11-20 22:43 ╮兲兲快泺╭ 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/14007770.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11445 Github:http 阅读全文
posted @ 2020-11-19 22:38 ╮兲兲快泺╭ 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/13996127.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11444 Github:http 阅读全文
posted @ 2020-11-17 21:59 ╮兲兲快泺╭ 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/13982641.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11443 Github:http 阅读全文
posted @ 2020-11-15 23:04 ╮兲兲快泺╭ 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/13971068.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11442 GitHub:http 阅读全文
posted @ 2020-11-13 23:27 ╮兲兲快泺╭ 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/13961192.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11441 组员人数:10 1.2 阅读全文
posted @ 2020-11-11 23:10 ╮兲兲快泺╭ 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 1.1 基本情况 队名:鸭梨鸭梨大 组长博客:https://www.cnblogs.com/fzucsx/p/13933770.html 作业博客:https://edu.cnblogs.com/campus/fzu/FZU_SE_KClass/homework/11440 组员人数:10 1.2 阅读全文
posted @ 2020-11-09 23:23 ╮兲兲快泺╭ 阅读(47) 评论(0) 推荐(0) 编辑
摘要: #作业① ##1)熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法;Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 代码部分 booksspider.py import scrapy from ..items import BooksproIt 阅读全文
posted @ 2020-11-03 21:57 ╮兲兲快泺╭ 阅读(112) 评论(0) 推荐(0) 编辑