摘要:
微习惯养成计划! 简单到不可能失败!! 太好了!问出这个问题,说明你已经从“感受问题”进入了“解决问题”的实操阶段。福格行为模型(Fogg Behavior Model, B=MAP)是应对“上班像坐牢”这种无力感的绝佳工具,因为它主张从微小、简单的改变入手,积小胜为大胜。 它的核心公式是:B (行 阅读全文
posted @ 2025-12-17 16:11
点影成金
阅读(43)
评论(0)
推荐(0)
摘要:
查看当前绝对路径 %pwd 或者 !pwd shell命令: ! + shell命令 如 !ls 阅读全文
posted @ 2025-12-17 15:54
点影成金
阅读(4)
评论(0)
推荐(0)
摘要:
def inception_module(in_tensor, c1, c3_1, c3, c5_1, c5, pp): conv1 = conv1x1(c1)(in_tensor) conv3_1 = conv1x1(c3_1)(in_tensor) conv3 = conv3x3(c3)(con 阅读全文
posted @ 2025-12-17 15:53
点影成金
阅读(10)
评论(0)
推荐(0)
摘要:
Research Group: AD&CN Modality:MRI Series Description: MPRAGE Weighting:T1 Slice Thickness Equals 1.2mm Acquisition Plane:SAGITTAL AD数据: 将search resul 阅读全文
posted @ 2025-12-17 15:52
点影成金
阅读(3)
评论(0)
推荐(0)
摘要:
一般而言,越到后层卷积核的个数越多,因为上一层的特征(卷积核)经过排列组合会生成更多的特征 阅读全文
posted @ 2025-12-17 15:51
点影成金
阅读(7)
评论(0)
推荐(0)
摘要:
先想办法让模型过拟合 filter个数用2的n次方 filter_size 用(3,3,3) batch_size用2的n次方 阅读全文
posted @ 2025-12-17 15:50
点影成金
阅读(4)
评论(0)
推荐(0)
该文被密码保护。 阅读全文
posted @ 2025-12-17 15:48
点影成金
阅读(0)
评论(0)
推荐(0)
摘要:
RNN存在弊端:与一个节点的距离远的节点会被忘记,因此提出LSTM(长短期记忆网络) GRU是LSTM的简化版 GRU有比LSTM更少的参数,所以训练起来更容易收敛(在小数据集上的表现优于LSTM) 阅读全文
posted @ 2025-12-17 15:46
点影成金
阅读(4)
评论(0)
推荐(0)
摘要:
模型分支 采用concatenate进行连接 encoded_a = shared_lstm(tweet_a) encoded_b = shared_lstm(tweet_b) merged_vector = keras.layers.concatenate([encoded_a, encoded_ 阅读全文
posted @ 2025-12-17 15:45
点影成金
阅读(9)
评论(0)
推荐(0)
摘要:
序贯式模型可以使用 model = Sequential() model.add 函数式模型 因为包含分支 要用到 像这样的: r_layer1 = LSTM(32,return_sequences = True)(input) 好处:便于模型融合(merge,concatenate) 阅读全文
posted @ 2025-12-17 15:44
点影成金
阅读(13)
评论(0)
推荐(0)
摘要:
封装与模块化 项目由一系列的.py文件组成,相当于是模块化编程的思想,这样有几点好处: 首先是每个py文件各司其职,代码清晰、各个模块的作用看名字就一目了然。 实现了灵活调用,需要哪个就调用哪个,不用在一整个文件里面去搜索、定位。 其次是可复用性强,数据A这次用完之后,下次换成数据B,只需要更改一下 阅读全文
posted @ 2025-12-17 15:41
点影成金
阅读(10)
评论(0)
推荐(0)

浙公网安备 33010602011771号