会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
天天见
博客园
首页
新随笔
联系
订阅
管理
2019年10月8日
pycharm+PyQt5 开发配置 py转exe pyinstaller
摘要: 3、以上模块都安完,设置扩展工具的参数找到setting->tools->external tools,点击加号新建工具 4、先加qtdesinger的参数,program:E:\python_study\qtstudy\venv\Lib\site-packages\pyqt5-tools\desi
阅读全文
posted @ 2019-10-08 20:12 天天见和
阅读(1118)
评论(0)
推荐(0)
2019年10月4日
客户价值分析-K均值聚类分析及结论
摘要: #k-means聚类分析 数据标准化zcdata=(cdata-cdata.mean())/cdata.std()zcdata.head()from sklearn.cluster import KMeanskmodel=KMeans(n_clusters=4,n_jobs=4,max_iter=1
阅读全文
posted @ 2019-10-04 21:35 天天见和
阅读(696)
评论(0)
推荐(0)
用户在投时长及F、M指标的构造
摘要: import pandas as pdfrom datetime import datetimefrom math import ceil #向上取整from pandas import DataFramedata=pd.read_excel('./data/data5.xlsx',encoding
阅读全文
posted @ 2019-10-04 21:34 天天见和
阅读(230)
评论(0)
推荐(0)
异常值的处理
摘要: #异常值的处理import pandas as pdimport numpy as npSegData=pd.read_csv('./data/data1.csv',encoding='gbk')SegData.head()SegData.describe().TSegData.loc[:,'供应商
阅读全文
posted @ 2019-10-04 06:34 天天见和
阅读(237)
评论(0)
推荐(0)
2019年10月3日
缺失值的处理
摘要: #缺失值的处理from pandas import Seriesimport numpy as npstringSer=Series(['a','b',np.nan,'d','e'])#isnull 显示空值 stringSer.isnull()#notnull 显示非空值stringSer.not
阅读全文
posted @ 2019-10-03 22:22 天天见和
阅读(180)
评论(0)
推荐(0)
数据集的合并
摘要: import pandas as pddf1=pd.DataFrame({'key':['a','b','c'],'data1':range(3)})df2=pd.DataFrame({'key':['a','b','d'],'data2':range(3)})pd.merge(df1,df2) #
阅读全文
posted @ 2019-10-03 20:55 天天见和
阅读(492)
评论(0)
推荐(0)
数据透视表
摘要: import pandas as pdpivot_data=pd.read_excel('./data/data3.xlsx')pivot_data.head()pivot_data.describe(include='all').T import numpy as np#透视表 求进货价合计、平均
阅读全文
posted @ 2019-10-03 20:32 天天见和
阅读(158)
评论(0)
推荐(0)
相关性分析 散点图
摘要: import pandas as pddf2=pd.read_excel('./data/data2.xlsx',index_col='产品编码')df2.head()x=df2['供应商进货价']y=df2['销售价']from pylab import mplmpl.rcParams['font
阅读全文
posted @ 2019-10-03 20:03 天天见和
阅读(3427)
评论(0)
推荐(0)
常用统计量分析
摘要: import pandas as pd df1=pd.read_csv("./data/data1.csv",encoding='gbk',index_col='产品编码')print(df1.head())#获得数据print(len(df1))print(df1.index.size)#求均值m
阅读全文
posted @ 2019-10-03 19:37 天天见和
阅读(282)
评论(0)
推荐(0)
2019年10月1日
Scrapy项目的目录结构
摘要: #执行这个爬虫文件 scrapy crawl spider51job
阅读全文
posted @ 2019-10-01 22:26 天天见和
阅读(557)
评论(0)
推荐(0)
下一页
公告