上一页 1 ··· 44 45 46 47 48 49 50 51 52 ··· 67 下一页
摘要: day01(上午):1.学习方法(建议):1).不要依赖于我的视频,绝对不要晚上将视频全部在过一遍2).上课不要记笔记,而且不要用纸质的笔记本去整理笔记3).不要只看不敲,代码方面我们需要做到:"敲、猛敲、使劲敲、往死里敲..."4).纸上得来终觉浅,绝知此事要躬行5).绝对不允许,上课睡觉、玩手机 阅读全文
posted @ 2019-02-24 15:23 hank-li 阅读(355) 评论(0) 推荐(0)
摘要: 3.子查询(难):当进行查询的时候,发现需要的数据信息不明确,需要先通过另一个查询得到,此查询称为子查询;执行顺序:先执行子查询得到结果以后返回给主查询组成部分:1).主查询部分2).子查询部分【注意事项】:子查询一定需要被定义/包裹在小括号内部,可以认为是显示的提升了代码执行的优先级需求1:查询薪 阅读全文
posted @ 2019-02-24 15:22 hank-li 阅读(651) 评论(0) 推荐(0)
摘要: 1.分组的概念:关键字:group by子句结论:在select列表中如果出现了聚合函数,不是聚合函数的列,必须都要定义到group by子句的后面需求:查询公司各个部门的平均工资?select department_id,avg(salary)from employeesgroup by depa 阅读全文
posted @ 2019-02-24 15:21 hank-li 阅读(207) 评论(0) 推荐(0)
摘要: 多行函数:(聚合函数/分组函数)解释:多条数据进入,单条结果出来(多进单出)1).max(obj):最大值2).min(obj):最小值3).sum(num):求和4).avg(num):求平均值5).count(obj):计数【注意事项】:1).max()和min()两个函数可以接受任何数据类型的 阅读全文
posted @ 2019-02-24 15:20 hank-li 阅读(433) 评论(0) 推荐(0)
摘要: 1.去重:distinct关键字需求:查看公司一共有多少部门? select department_id from employees; //此代码会查出107条记录,存在部门重复的问题! select distinct department_id from employees; 思考:参看如下代码 阅读全文
posted @ 2019-02-24 15:19 hank-li 阅读(751) 评论(0) 推荐(0)
摘要: day01回顾:数据库:定义:存储数据的仓库(database,简称db)常用的数据库对象有哪些?1).数据表(table) *****2).视图(view)3).索引(index)4).序列(sequence)主流的关系型数据库有哪些?(枚举)oracle、mysql、sqlserver、db2. 阅读全文
posted @ 2019-02-24 15:18 hank-li 阅读(306) 评论(0) 推荐(0)
摘要: day01:关键字:desc作用:查看表结构(字段名,数据类型&长度)举例:desc python1808_laoguo;追加数据到表中:(新增操作)关键字:insert into格式1:insert into 表名 values(值1,值2,值3...);格式2: insert into 表名(列 阅读全文
posted @ 2019-02-24 15:17 hank-li 阅读(226) 评论(0) 推荐(0)
摘要: 1).python基础语法:4周课程(结束阶段考试)2).前端知识点:html、css、javascript(js)、jQuery3).Linux(系统)、数据库(关系型&非关系型)4).python框架5).爬虫6).数据分析(人工智能)数据库(database:db)定义:存储数据的仓库主要的对 阅读全文
posted @ 2019-02-24 15:16 hank-li 阅读(228) 评论(0) 推荐(0)
摘要: 您可以按下某些组合键来实现通常需要鼠标、触控板或其他输入设备才能完成的操作。 您可以按下某些组合键来实现通常需要鼠标、触控板或其他输入设备才能完成的操作。 要使用键盘快捷键,请按住一个或多个修饰键,然后按快捷键的最后一个键。例如,要使用 Command-C(拷贝),请按住 Command 键并按 C 阅读全文
posted @ 2019-02-24 11:52 hank-li 阅读(373) 评论(0) 推荐(0)
摘要: 用scrapy框架迭代爬取时报错 scrapy日志: 在 setting.py 文件中 设置 日志 记录等级 LOG_LEVEL= 'DEBUG' LOG_FILE ='log.txt' 观察 scrapy 日志 2017-08-15 21:58:05 [scrapy.spidermiddlewar 阅读全文
posted @ 2019-02-21 22:02 hank-li 阅读(220) 评论(0) 推荐(0)
上一页 1 ··· 44 45 46 47 48 49 50 51 52 ··· 67 下一页