摘要: 微习惯养成计划! 简单到不可能失败!! 太好了!问出这个问题,说明你已经从“感受问题”进入了“解决问题”的实操阶段。福格行为模型(Fogg Behavior Model, B=MAP)是应对“上班像坐牢”这种无力感的绝佳工具,因为它主张从微小、简单的改变入手,积小胜为大胜。 它的核心公式是:B (行 阅读全文
posted @ 2025-12-17 16:11 点影成金 阅读(43) 评论(0) 推荐(0)
摘要: 查看当前绝对路径 %pwd 或者 !pwd shell命令: ! + shell命令 如 !ls 阅读全文
posted @ 2025-12-17 15:54 点影成金 阅读(4) 评论(0) 推荐(0)
摘要: def inception_module(in_tensor, c1, c3_1, c3, c5_1, c5, pp): conv1 = conv1x1(c1)(in_tensor) conv3_1 = conv1x1(c3_1)(in_tensor) conv3 = conv3x3(c3)(con 阅读全文
posted @ 2025-12-17 15:53 点影成金 阅读(10) 评论(0) 推荐(0)
摘要: Research Group: AD&CN Modality:MRI Series Description: MPRAGE Weighting:T1 Slice Thickness Equals 1.2mm Acquisition Plane:SAGITTAL AD数据: 将search resul 阅读全文
posted @ 2025-12-17 15:52 点影成金 阅读(3) 评论(0) 推荐(0)
摘要: 一般而言,越到后层卷积核的个数越多,因为上一层的特征(卷积核)经过排列组合会生成更多的特征 阅读全文
posted @ 2025-12-17 15:51 点影成金 阅读(7) 评论(0) 推荐(0)
摘要: 先想办法让模型过拟合 filter个数用2的n次方 filter_size 用(3,3,3) batch_size用2的n次方 阅读全文
posted @ 2025-12-17 15:50 点影成金 阅读(4) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2025-12-17 15:48 点影成金 阅读(0) 评论(0) 推荐(0)
摘要: RNN存在弊端:与一个节点的距离远的节点会被忘记,因此提出LSTM(长短期记忆网络) GRU是LSTM的简化版 GRU有比LSTM更少的参数,所以训练起来更容易收敛(在小数据集上的表现优于LSTM) 阅读全文
posted @ 2025-12-17 15:46 点影成金 阅读(4) 评论(0) 推荐(0)
摘要: 模型分支 采用concatenate进行连接 encoded_a = shared_lstm(tweet_a) encoded_b = shared_lstm(tweet_b) merged_vector = keras.layers.concatenate([encoded_a, encoded_ 阅读全文
posted @ 2025-12-17 15:45 点影成金 阅读(9) 评论(0) 推荐(0)
摘要: 序贯式模型可以使用 model = Sequential() model.add 函数式模型 因为包含分支 要用到 像这样的: r_layer1 = LSTM(32,return_sequences = True)(input) 好处:便于模型融合(merge,concatenate) 阅读全文
posted @ 2025-12-17 15:44 点影成金 阅读(13) 评论(0) 推荐(0)
摘要: 封装与模块化 项目由一系列的.py文件组成,相当于是模块化编程的思想,这样有几点好处: 首先是每个py文件各司其职,代码清晰、各个模块的作用看名字就一目了然。 实现了灵活调用,需要哪个就调用哪个,不用在一整个文件里面去搜索、定位。 其次是可复用性强,数据A这次用完之后,下次换成数据B,只需要更改一下 阅读全文
posted @ 2025-12-17 15:41 点影成金 阅读(10) 评论(0) 推荐(0)