摘要: 【PPO算法介绍】 PPO(Proximal Policy Optimization)是一种强化学习算法,它的目标是找到一个策略,使得根据这个策略采取行动可以获得最大的累积奖励。PPO的主要思想是在更新策略时,尽量让新策略不要偏离旧策略太远。这是通过在目标函数中添加一个额外的项来实现的,这个额外的项 阅读全文
posted @ 2023-09-30 09:46 bonelee 阅读(294) 评论(0) 推荐(0) 编辑
摘要: 针对夸夸闲聊数据集,利用UniLM模型进行模型训练及测试,更深入地了解预训练语言模型的使用方法,完成一个生成式闲聊机器人任务。 项目主要结构如下: data 存放数据的文件夹 dirty_word.txt 敏感词数据 douban_kuakua_qa.txt 原始语料 【数据量:大概20M的样子】= 阅读全文
posted @ 2023-09-27 11:32 bonelee 阅读(240) 评论(0) 推荐(0) 编辑
摘要: 注入类型 C++代码实现链接和检测思考 检测优先级 备注Portable Executable Injection - PE注入 https://www.cnblogs.com/bonelee/p/17719649.html 高 核心还是创建远程线程,不过有PE重定位表的修复Thread Execu 阅读全文
posted @ 2023-09-21 12:18 bonelee 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 线程劫持:运行方法 C:\Users\l00379637\source\repos\thread_hijack\x64\Release\thread_hijack.exe 18132 C:\Users\l00379637\source\repos\injected_dll\x64\Release\i 阅读全文
posted @ 2023-09-19 12:11 bonelee 阅读(95) 评论(0) 推荐(0) 编辑
摘要: GPT大模型下,如何实现网络自主防御 本期解读专家 李智华 华为安全AI算法专家 近年来,随着GPT大模型的出现,安全领域的攻防对抗变得更加激烈。RSAC2023人工智能安全议题重点探讨了人工智能安全的最新发展,包括人工智能合成器安全、安全机器学习以及如何利用渗透测试和强化学习技术来确保人工智能模型 阅读全文
posted @ 2023-06-04 17:14 bonelee 阅读(495) 评论(0) 推荐(1) 编辑
摘要: 从攻击视角探讨ChatGPT对网络安全的影响 专家介绍:李智华,华为安全AI算法专家,中科院博士 ChatGPT是OpenAI 发布的基于人工智能的对话机器人,上线短短2个月活跃用户就突破了1亿,成为全球关注的焦点。ChatGPT可以自动化地处理对话,可以通过基于自然语言处理技术的模型、情景模型和语 阅读全文
posted @ 2023-02-25 09:25 bonelee 阅读(1008) 评论(2) 推荐(1) 编辑
摘要: 从防御视角探讨ChatGPT对网络安全的影响 专家介绍:李智华,华为安全AI算法专家,中科院博士 ChatGPT的核心优势是通过基于自然语言处理技术模型、情景模型和语言模型来自动生成文章和代码。在前面的文章中,我们从攻击视角探讨了ChatGPT对网络安全的影响, 本文将从防御视角来探讨ChatGPT 阅读全文
posted @ 2023-02-25 09:24 bonelee 阅读(502) 评论(0) 推荐(0) 编辑
摘要: Windows内核开发工程师 职责描述: 1、公司产品的EDR底层C/C++开发。 2、Windows内核相关的功能编码实现与维护。 3、Windows内核相关的技术调研,原理分析。 任职要求: 1、熟悉Windows内核原理,内存管理、进程调度。 2、熟悉Windows调试原理,熟练使用Windb 阅读全文
posted @ 2022-10-26 12:46 bonelee 阅读(173) 评论(0) 推荐(0) 编辑
摘要: RSA 2022人工智能安全洞察——在对抗中前进 李智华 中科院博士,华为安全AI算法专家 人工智能和机器学习在安全中的应用是一个屡见不鲜的话题,同样在2022 RSA大会中出现了围绕AI/ML为重点的焦点议题。此次会议中重点探讨了AI对抗和隐私合规问题,还有时下热门的零信任、API安全和威胁狩猎等 阅读全文
posted @ 2022-07-12 09:57 bonelee 阅读(309) 评论(7) 推荐(0) 编辑
摘要: RAG是一种检索增强生成模型,由信息检索系统和seq2seq生成器组成。它的内部知识可以轻松地随时更改或补充,而无需浪费时间或算力重新训练整个模型。 举个例子,假设你正在写一篇关于猫的文章,但你不确定如何描述猫的行为。你可以使用RAG来检索与猫行为相关的文档,然后将这些文档作为上下文与原始输入拼接起 阅读全文
posted @ 2023-11-10 17:04 bonelee 阅读(99) 评论(0) 推荐(0) 编辑
摘要: 以智能对抗智能,利用强化学习实现网络自主防御 随着攻防对抗更加激烈,以智能对抗智能是数字化时代下的安全趋势。 在《Reinforcement Learning for Autonomous Cyber Defense》中,专门探讨了如何利用强化学习,实现自主网络防御。作者提出网络防御强化学习的目的是 阅读全文
posted @ 2023-11-02 11:06 bonelee 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 目标:生成对抗样本,扰动图像,让原本是“停”的信号牌识别为“禁止驶入”: 代码如下(注意,因为我找的cnn原始模型支持的是灰度图像,所以彩色的对抗样本还需要修改代码): import cv2, os import numpy as np import numpy as np import tenso 阅读全文
posted @ 2023-10-30 11:55 bonelee 阅读(118) 评论(0) 推荐(0) 编辑
摘要: 【FGSM生成对抗样本的原理和步骤】 快速梯度符号方法(Fast Gradient Sign Method,FGSM)是一种常用的生成对抗样本的方法。它的基本原理是利用模型的梯度信息来找到一个可以最大化模型误差的方向,然后沿着这个方向对输入数据进行微小的扰动,从而生成对抗样本。以下是FGSM生成对抗 阅读全文
posted @ 2023-10-29 23:55 bonelee 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 示例: #include <stdio.h> #include <stdlib.h> // 定义一个包含柔性数组的结构体 struct flex_array { int size; int data[0]; }; int main() { int i; int size = 10; // 动态分配内 阅读全文
posted @ 2023-10-24 15:08 bonelee 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 【PPO算法介绍】 PPO(Proximal Policy Optimization)是一种强化学习算法,它的目标是找到一个策略,使得根据这个策略采取行动可以获得最大的累积奖励。PPO的主要思想是在更新策略时,尽量让新策略不要偏离旧策略太远。这是通过在目标函数中添加一个额外的项来实现的,这个额外的项 阅读全文
posted @ 2023-09-30 09:46 bonelee 阅读(294) 评论(0) 推荐(0) 编辑
摘要: ChatGPTBook/LLMFTProj Name Last commit message Last commit date parent directory .. ChatGLM-6B (Directory) update code 3 months ago data (Directory) u 阅读全文
posted @ 2023-09-28 16:32 bonelee 阅读(79) 评论(0) 推荐(0) 编辑
摘要: 【提示学习】 提示学习(Prompting)是一种自然语言处理(NLP)中的训练技术,它利用预训练的语言模型(如BERT、GPT等)来解决各种下游任务,如文本分类、命名实体识别、问答等。这种方法的关键思想是通过设计合适的提示(Prompt),将下游任务转化为一个填空任务,然后利用预训练的语言模型来预 阅读全文
posted @ 2023-09-27 16:32 bonelee 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 针对夸夸闲聊数据集,利用UniLM模型进行模型训练及测试,更深入地了解预训练语言模型的使用方法,完成一个生成式闲聊机器人任务。 项目主要结构如下: data 存放数据的文件夹 dirty_word.txt 敏感词数据 douban_kuakua_qa.txt 原始语料 【数据量:大概20M的样子】= 阅读全文
posted @ 2023-09-27 11:32 bonelee 阅读(240) 评论(0) 推荐(0) 编辑
摘要: 在bert的基础上加了一个分类层: 代码实现: output = bert.model.output output = Lambda(lambda x: x[:, 0], name='CLS-token')(output) output = Dense( units=num_classes, act 阅读全文
posted @ 2023-09-24 19:31 bonelee 阅读(38) 评论(0) 推荐(0) 编辑