11 2021 档案

摘要:全卷积网络 FCN的概念由Jonathan Long等人在2015年发表的论文中首次提出,用于语义分割(根据图像所属物体的类别对图像中的每个像素点进行分类的任务)。作者指出,可以用卷积层代替CNN顶部的密集层。 假设一个具有200个神经元的密集层位于一个卷积层的顶部,该卷积层输出100个特征图,每个 阅读全文
posted @ 2021-11-27 12:24 里列昂遗失的记事本 阅读(174) 评论(0) 推荐(0)
摘要:物体检测 在图像中对多个物体进行分类和定位的任务称为物体检测。一种通用的方法是采用经过训练的CNN来对单个物体进行分类和定位,然后将其在图像上滑动。 这项技术非常简单直观,但是它将多次检测同一物体,但位置略有不同。然后需要进行一些后期处理,以消除所有不必要的边界框。一种常见的方法称为非极大抑制。以下 阅读全文
posted @ 2021-11-26 14:27 里列昂遗失的记事本 阅读(209) 评论(0) 推荐(0)
摘要:分类与定位 定位图片中物体可以表示为回归任务:预测物体周围的边界框,一种常见的方法是预测物体中心的水平坐标和垂直坐标,还有其高度和宽度。这意味着有四个数字要预测。它不需要对模型进行太多修改,只需要添加四个具有单位的第二个密集输出层(通常在全局平均池化层之上),就可以使用MSE损失对其进行训练: im 阅读全文
posted @ 2021-11-26 14:19 里列昂遗失的记事本 阅读(61) 评论(0) 推荐(0)
摘要:# 迁移学习的预训练模型 如果想构建图像分类器但没有足够的训练数据,那么重用预训练模型的较低层通常是个好办法。例如,训练模型来对花的图片进行分类,并使用预先训练的Xception模型。首先,使用TensorFlow Datasets加载数据集: ```python import tensorflow 阅读全文
posted @ 2021-11-26 12:25 里列昂遗失的记事本 阅读(259) 评论(2) 推荐(0)
摘要:使用Keras的预训练模型 通常,无需手动实现像GoogLeNet或ResNet这样的标准模型,因为在keras.applications包中只需一行代码即可获得预训练的网络。 例如,使用以下代码加载在ImageNet上预训练的ResNet-50模型: from tensorflow import 阅读全文
posted @ 2021-11-26 11:08 里列昂遗失的记事本 阅读(773) 评论(0) 推荐(0)
摘要:CNN架构 典型的CNN架构堆叠了一些卷积层(通常每个卷积层都跟随着一个ReLU层),然后是一个池化层,然后是另外几个卷积层(+ReLU),然后是另一个池化层,以此类推。随着卷积网络的不断发展,图像变得越来越小,但是由于卷积层的存在,图像通常也越来越深(即具有更多的特征图)。在堆栈的顶部添加了一个常 阅读全文
posted @ 2021-11-21 13:31 里列昂遗失的记事本 阅读(348) 评论(0) 推荐(0)
摘要:身份证号校验 描述 中国目前采用的是18位身份证号,其第7-10位数字是出生年,11-12位是出生月份,13-14是出生日期,第17位是性别,奇数为男性,偶数为女性,第18位是校验位。 如果身份证号码的其中一位填错了(包括最后一个校验位),则校验算法可以检测出来。如果身份证号的相邻2位填反了,则校验 阅读全文
posted @ 2021-11-21 09:58 里列昂遗失的记事本 阅读(1602) 评论(0) 推荐(0)
摘要:计算圆周率 描述 根据下面的泰勒级数关系式,求圆周率的值,当最后一项的值小于给定阈值时结束。 输入格式 输入在一行中给出小于1且大于0的阈值。 输出格式 在一行中输出满足阈值条件的近似圆周率,输出到小数点后6位。 代码 k = flag = 1 s = 0 epsilon = eval(input( 阅读全文
posted @ 2021-11-21 09:48 里列昂遗失的记事本 阅读(1263) 评论(0) 推荐(0)
摘要:求e的近似值 描述 自然常数e可以用级数1+1/1!+1/2!+⋯+1/n!来近似计算。‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬ 本题要求对给定的非 阅读全文
posted @ 2021-11-21 09:39 里列昂遗失的记事本 阅读(1654) 评论(0) 推荐(0)
摘要:判断是否直角三角形 描述 输入三个数a,b,c, 判断能否以它们为三个边长构成直角三角形。若能,输出YES,否则输出NO。 输入格式 输入包括三行,每行是一个数字 输出格式 'YES' 或'NO' 代码 a, b, c = [eval(input()) for _ in range(3)] # 使用 阅读全文
posted @ 2021-11-21 09:27 里列昂遗失的记事本 阅读(1671) 评论(0) 推荐(0)
摘要:水仙花数 描述 水仙花数(Narcissistic number)也被称为超完全数字不变数(pluperfect digital invariant, PPDI)、自恋数、自幂数、阿姆斯壮数或阿姆斯特朗数(Armstrong number),水仙花数是指一个 n位数(n≥3 且 n<6),它的每个位 阅读全文
posted @ 2021-11-21 09:16 里列昂遗失的记事本 阅读(770) 评论(0) 推荐(0)
摘要:密码强度判断 描述 用户输入一个字符串做为密码,判断密码强度,规则为:密码长度小于8弱密码,密码长度大于等于8且包含至少2种字符为中等强度、密码包含3种字符为强、包含全部4种字符为极强。 提示:‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪ 阅读全文
posted @ 2021-11-21 00:21 里列昂遗失的记事本 阅读(3299) 评论(0) 推荐(0)
摘要:字符串连接 描述 用.将用户输入的4个字符串连接成一个字符串(第一个字符串前不能有'.') 输入格式 输入包括4行, 每行输入一个字符串 输出格式 输出一个用'.'连接起来的字符串 代码 a, b, c, d = [input() for _ in range(4)] # 使用列表推导获取四个输入 阅读全文
posted @ 2021-11-21 00:09 里列昂遗失的记事本 阅读(439) 评论(0) 推荐(0)
摘要:黑客语解密 描述 黑客语(Leet)是从网络发展起来的一种文字书写方式。通常将英语中的字母替换为数字和特殊符号。这种方式被很多黑客组织所使用。由于具有隐密性,所以它也广泛被用于密码中。使用Leet书写的密码,不会增加密码记忆的复杂度,但却可以提高密码的强度。常见的转化规律有,\(替换s,3替换e,4 阅读全文
posted @ 2021-11-21 00:05 里列昂遗失的记事本 阅读(738) 评论(0) 推荐(0)
摘要:分类统计字符 描述 用户输入一个字符串,分别统计其中小写字母、大写字母、数字、空格和其他字符的个数,并在一行内输出小写字母、大写字母、数字、空格和其他字符的个数。 输入格式 输入一个字符串 输出格式 在一行内输出小写字母、大写字母、数字、空格和其他字符的个数 代码 words = input() a 阅读全文
posted @ 2021-11-21 00:02 里列昂遗失的记事本 阅读(1690) 评论(0) 推荐(0)
摘要:字符串长度 描述 用户输入一个字符串,程序输出字符串的长度 输出格式 一个表示字符串长度的整数 代码 print(len(input())) # 获取输入字符串,调用len()函数来计算字符串长度 阅读全文
posted @ 2021-11-20 23:57 里列昂遗失的记事本 阅读(733) 评论(0) 推荐(0)
摘要:子字符串输出 描述 按要求完善示例程序:‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬ #分两行输出 python语言程序设计 #python字符串可采用 阅读全文
posted @ 2021-11-20 23:55 里列昂遗失的记事本 阅读(134) 评论(0) 推荐(0)
摘要:字符串逆序输出 描述 用户输入一个字符串,倒序输出。 输入格式 输入一个字符串 输出格式 一个倒序的字符串 代码 print(input()[::-1]) # 将输入的字符串逆序输出 阅读全文
posted @ 2021-11-20 23:52 里列昂遗失的记事本 阅读(1713) 评论(0) 推荐(0)
摘要:数列求和 描述 给定某数字a(1≤a≤9)以及非负整数n(0≤n≤100000),求数列之和sum=a+aa+aaa+⋯+aa⋯a(n个a)。例如a=2, n=3时,sum=2+22+222=246。 输入格式 输入有两行:‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬ 阅读全文
posted @ 2021-11-20 23:48 里列昂遗失的记事本 阅读(1869) 评论(0) 推荐(0)
摘要:鸡兔同笼 描述 大约在1500年前,《孙子算经》中就记载了这个有趣的问题。书中是这样叙述的: 今有雉兔同笼,上有三十五头,下有九十四足,问雉兔各几何? 这四句话的意思是: 有若干只鸡兔同在一个笼子里,从上面数,有35个头,从下面数,有94只脚。问笼中各有多少只鸡和兔?‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬ 阅读全文
posted @ 2021-11-20 23:43 里列昂遗失的记事本 阅读(1620) 评论(0) 推荐(0)
摘要:棋盘放米 描述 相传古代印度国王舍罕要褒赏他的聪明能干的宰相达依尔 (国际象棋发明者),问他需要什么,达依尔回答说:“国王只要在国际象棋的棋盘第一个格子里放一粒麦子,第二个格子里放两粒,第三个格子里放四粒,按此比例以后每一格加一倍,一直放到64格(国际象棋棋盘是8×8=64格),我就感恩不尽,其他的 阅读全文
posted @ 2021-11-20 19:19 里列昂遗失的记事本 阅读(2877) 评论(0) 推荐(0)
摘要:三角函数计算 描述 根据下面公式计算并输出x的值,a和b的值由用户输入,括号里的数字是角度值, 圆周率的值使用数学常数math.pi。‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪ 阅读全文
posted @ 2021-11-20 19:13 里列昂遗失的记事本 阅读(2078) 评论(0) 推荐(0)
摘要:同符号运算 描述 读入一个整数N,分别计算如下内容:‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬ N的绝对值;‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪ 阅读全文
posted @ 2021-11-20 19:02 里列昂遗失的记事本 阅读(516) 评论(0) 推荐(0)
摘要:温度转换异常处理 描述 温度的刻画有两个不同体系:摄氏度(Celsius)和华氏度(Fabrenheit)。‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬ 阅读全文
posted @ 2021-11-20 18:59 里列昂遗失的记事本 阅读(1689) 评论(0) 推荐(0)
摘要:鸡兔同笼 描述 一个笼子里面关了若干只鸡和兔子(鸡有2只脚,兔子有4只脚,没有例外)。已经知道了笼子里脚的总数为a,则笼子里面至少有多少只动物,至多有多少只动物? 输入格式 第1行输入一个正整数n(n≤1000),表示测试数据的组数n,接下来n组测试数据每组一行,每行一个正整数a(a<32768)。 阅读全文
posted @ 2021-11-20 18:46 里列昂遗失的记事本 阅读(1283) 评论(0) 推荐(0)
摘要:池化层 池化层的目标是对输入图像进行下采样(即缩小),以便减少计算量、内存使用量和参数数量(从而降低过拟合的风险) 池化层中的每个神经元都连接到位于一个小的矩形接受视野中的上一层中有限数量的神经元的输出。必须定义其大小、步幅和填充类型。但是,池化层没有权重。它所做的工作就是使用聚合函数(例如最大值或 阅读全文
posted @ 2021-11-19 22:21 里列昂遗失的记事本 阅读(760) 评论(0) 推荐(0)
摘要:卷积层 CNN的最重要的构建层就是卷积层:第一卷积层的神经元不会连接到输入图像中的每个像素,而只于接受视野内的像素相连。反过来,第二卷积层的每个神经元仅连接到位于第一层中的一个小矩阵内的神经元。这种架构允许网络集中在第一个隐藏层的低阶特征中,然后在下一个隐藏层中将它们组装成比较高阶的特征。 之前的神 阅读全文
posted @ 2021-11-15 21:08 里列昂遗失的记事本 阅读(718) 评论(0) 推荐(0)
摘要:视觉皮层的架构 卷积神经网络(CNN)起源于对大脑的视觉皮层的研究,从20世纪80年代起被用于图像识别。在过去几年中,由于计算机计算能力的提高、可训练数据数量的增加,以及用于深度学习网络训练技巧的增加,CNN已经在一些复杂的视觉任务中实现了超人性化,广泛用于图片搜索服务、自动驾驶汽车、自动视频分类系 阅读全文
posted @ 2021-11-14 11:15 里列昂遗失的记事本 阅读(368) 评论(0) 推荐(0)
摘要:为了正确比较而规范Unicode字符串 因为Unicode有组合字符(变音字符和附加到前一个字符上的记号,打印时作为一个整体),所以字符串比较起来很复杂。 例如,"café"这个词可以使用两种方式构成,分别由4个和5个码位,但是结果完全一样: s1 = 'café' s2 = 'cafe\u0301 阅读全文
posted @ 2021-11-14 10:48 里列昂遗失的记事本 阅读(724) 评论(0) 推荐(0)
摘要:处理文本文件 处理文本的最佳实践是“Unicode三明治”。尽早把输入的的字节序列解码成字符串,然后对字符串进行处理,在其他过程中一定不能编码或解码。对输出来说,要尽量晚地把字符串编码成字节序列 在Python3中能轻松的采纳Unicode三明治的建议,因为内置的open函数会再读取文件时做必要的解 阅读全文
posted @ 2021-11-14 09:40 里列昂遗失的记事本 阅读(193) 评论(0) 推荐(0)
摘要:import jieba with open('./西游记.txt', 'r', encoding='utf_8') as f: words = jieba.lcut(f.read()) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for wo 阅读全文
posted @ 2021-11-13 10:34 里列昂遗失的记事本 阅读(92) 评论(0) 推荐(0)
摘要:from random import random def printInfo(): ''' function: 打印程序的介绍信息 ''' print("产品名称: 排球比赛模拟分析器") print("产品概述: 通过输入2个队伍A和B的能力值(0到1之间的小数表示),能够模拟多次2个队伍A和B 阅读全文
posted @ 2021-11-13 10:19 里列昂遗失的记事本 阅读(75) 评论(0) 推荐(0)
摘要:#include <stdio.h> typedef unsigned char *byte_pointer; //将数据类型byte_pointer定义为一个指向类型为unsigned char的对象的指针 void show_bytes(byte_pointer start, size_t le 阅读全文
posted @ 2021-11-08 00:16 里列昂遗失的记事本 阅读(95) 评论(0) 推荐(0)
摘要:阻尼牛顿法(Python实现) 使用牛顿方向,分别使用Armijo准则和Wolfe准则来求步长 求解方程 $f(x_1,x_2)=(x_1^2-2)^4+(x_1-2x_2)^2$的极小值 import numpy as np import tensorflow as tf def fun(x): 阅读全文
posted @ 2021-11-07 18:09 里列昂遗失的记事本 阅读(1487) 评论(0) 推荐(0)
摘要:最速下降法(Python实现) 使用最速下降法方向,分别使用Armijo准则和Wolfe准则来求步长 求解方程 $f(x_1,x_2)=(x_1^2-2)^4+(x_1-2x_2)^2$的极小值 import numpy as np import tensorflow as tf def fun(x 阅读全文
posted @ 2021-11-07 18:06 里列昂遗失的记事本 阅读(1962) 评论(0) 推荐(0)
摘要:#include <stdio.h> typedef unsigned char *byte_pointer; //将数据类型byte_pointer定义为一个指向类型为unsigned char的对象的指针 void show_bytes(byte_pointer start, size_t le 阅读全文
posted @ 2021-11-07 17:56 里列昂遗失的记事本 阅读(78) 评论(0) 推荐(0)