09 2022 档案

摘要:// Math.random() // Math.random() 返回 0(包括) 至 1(不包括) 之间的随机数: var zxc=Math.random() console.log(zxc); // Math.random() 与 Math.floor() 一起使用用于返回随机整数。 // 1 阅读全文
posted @ 2022-09-26 19:44 python,菜鸟 阅读(55) 评论(0) 推荐(0)
摘要:import time # from selenium import webdriver from selenium.webdriver.chrome.service import Service from bs4 import BeautifulSoup from selenium.webdriv 阅读全文
posted @ 2022-09-24 20:45 python,菜鸟 阅读(66) 评论(0) 推荐(0)
摘要://函数使用分为两步 :声明函数 调有函数 //1.声明函数 // function 函数名(){ // console.log('函数'); // } function shasf(){ console.log('hi-'); } //(1) function 声明的函数的关键字,全部小写 //( 阅读全文
posted @ 2022-09-24 20:31 python,菜鸟 阅读(37) 评论(0) 推荐(0)
摘要:// 这是字符串 能够使用单引号或双引号 var mko='hello woredw' var qwe="hello worasd" // new 一个字符串 var ssrwa=new String("hello") // 字符串的长度】 var mko=mko.length // 索引的下标 c 阅读全文
posted @ 2022-09-21 21:29 python,菜鸟 阅读(67) 评论(0) 推荐(0)
摘要:作者:小辉 [root@zxc qwe]# ll /dev/sd*brw-rw 1 root disk 8, 0 9月 19 14:38 /dev/sdabrw-rw 1 root disk 8, 1 9月 19 14:38 /dev/sda1brw-rw 1 root disk 8, 2 9月 1 阅读全文
posted @ 2022-09-19 16:13 python,菜鸟 阅读(48) 评论(0) 推荐(0)
摘要:create database if not exists DOOK charset 'utf8';#创建一个数据库 判断有没有,没有的话就创建 指定字符集 utf8 create table njo_op( id int auto_increment primary key comment 'id 阅读全文
posted @ 2022-09-15 17:32 python,菜鸟 阅读(21) 评论(0) 推荐(0)
摘要:先去看 将selinux 的值设置成disabled - python,菜鸟 - 博客园 (cnblogs.com) 在看 ping: www.baidu.com: 未知的名称或服务 - python,菜鸟 - 博客园 (cnblogs.com) 作者:小辉 1.2.2 初始化操作 关闭防火墙与和核 阅读全文
posted @ 2022-09-13 18:35 python,菜鸟 阅读(304) 评论(0) 推荐(0)
摘要:作者:熊小辉 // 1.创建 数组(Array):是一组的数据的集合 // 2.利用new 创建数组 // 3.数组可以放各种类型 // 4.必须要逗号分开 // 5.存放数组数据的叫,数组元素 var bhu = new Array() // 6.使用数组面量方式创建数组 var dsfsdg = 阅读全文
posted @ 2022-09-13 11:25 python,菜鸟 阅读(54) 评论(0) 推荐(0)
摘要:菜鸟:小辉 问题: 192.168.213.120_controller.pp: [ ERROR ] Applying Puppet manifests [ ERROR ] ERROR : Error appeared during Puppet run: 192.168.213.120_contr 阅读全文
posted @ 2022-09-12 21:16 python,菜鸟 阅读(6125) 评论(0) 推荐(0)
摘要:菜鸟:小辉 在执行ping www.baidu.com命令时,出现如下错误: [root@qwe bhu_123]# ping www.baidu.comping: www.baidu.com: 未知的名称或服务 一、找到自己电脑ip地址 先确定登录的身份是否为root用户,如果不是,最好切换为ro 阅读全文
posted @ 2022-09-11 22:20 python,菜鸟 阅读(5658) 评论(0) 推荐(0)
摘要:菜鸟:小辉 进入到Linux的终端 [qwe@zxc ~]$ su root 切换的root下面 直接输入 vi 文件名 就能够进入 vi 的一般模式了。请注意,记得 vi 后面一定要加文件名,不管该文件存在与否! [root@zxc qwe]# vim /etc/selinux/config 之后 阅读全文
posted @ 2022-09-11 13:03 python,菜鸟 阅读(1930) 评论(0) 推荐(0)
摘要:import time import requests from bs4 import BeautifulSoup from lxml import etree # @Author : 熊xiaohui # @Software: PyCharm #爬取北京的二手房的信息 a=0 cz={'User- 阅读全文
posted @ 2022-09-09 20:23 python,菜鸟 阅读(214) 评论(0) 推荐(0)
摘要:import requests 作者:小辉 herd={ 'accept': 'application/json', 'accept-encoding': 'gzip, deflate, br', 'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; 阅读全文
posted @ 2022-09-09 20:15 python,菜鸟 阅读(24) 评论(0) 推荐(0)
摘要:import time import requests from lxml import etree from multiprocessing import Pool #先创建一个lp文件夹 def zxc(qwe,hercx): qwe_op=requests.get(qwe,headers=he 阅读全文
posted @ 2022-09-09 20:14 python,菜鸟 阅读(145) 评论(0) 推荐(0)
摘要:from lxml import etree import requests # 爬取一首唐诗 hercx={ 'User-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 阅读全文
posted @ 2022-09-09 20:13 python,菜鸟 阅读(40) 评论(0) 推荐(0)
摘要:from bs4 import BeautifulSoup import requests import lxml # 开任意浏览器,在网址上输入about://version查看浏览器的代理 hasd_op={ "User-Agent":"Mozilla/5.0 (Windows NT 10.0; 阅读全文
posted @ 2022-09-09 20:12 python,菜鸟 阅读(47) 评论(0) 推荐(0)
摘要:import requests #导入 requests 包 先看请求的方法是什么,比如 get,proct然后有些内容是通过异步加载的,所有我们要找到异步加载的文件 ,异步加载:执行过程同时加载查找的方法是 ,检查,找到网络 ,点XHR 就可以看到异步数据,,请求标头有 X-Requested-W 阅读全文
posted @ 2022-09-09 20:10 python,菜鸟 阅读(54) 评论(0) 推荐(0)
摘要:import datetime import random import time from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver 阅读全文
posted @ 2022-09-09 19:53 python,菜鸟 阅读(66) 评论(0) 推荐(0)
摘要:# from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver.common.by import By from lxml import et 阅读全文
posted @ 2022-09-09 19:48 python,菜鸟 阅读(81) 评论(0) 推荐(0)
摘要:#3156874915import requests from requests import post from json import dumps from re import findall#作者:小辉 # xiong xiao hui #爬取某米有品的手机信息 def get_content 阅读全文
posted @ 2022-09-06 18:39 python,菜鸟 阅读(129) 评论(0) 推荐(0)
摘要:京东价格爬取为空,正则/beautifulsoup/lxml都获取不到价格信息 原因:由于网页html动态加载了数据,所以在检查模式下能看到价格,但是实际上用正则/beautifulsoup/lxml都获取不到价格信息。 解决: https://p.3.cn/prices/mgets?skuIds= 阅读全文
posted @ 2022-09-04 20:48 python,菜鸟 阅读(197) 评论(0) 推荐(0)