InterLM第二课
InternLM-Chat-7B 智能对话 Demo
环境准备
python版本与需要安装的包
模型下载
从share文件夹中获取所需要的模型和数据
将代码移动到/root/code/InterLM
文件夹,同时切换代码版本
修改web_demo.py
中的模型地址,换为本地地址
创建文件cli_demo.py
,并将内容写入文件
终端运行
正常中英文问答没有问题
不过给一个算式直接炸了
然后重新跑了一下,又没问题了
web运行
设置好端口映射后运行代码
运行模型
运行结果
Lagent 智能体工具调用 Demo
环境准备
跟上边的一样
模型下载
已经复制好了
Lagent 安装
修改代码
Demo 运行
效果展示
浦语·灵笔图文理解创作 Demo
环境准备,模型准备都和上边一样
代码准备
运行代码
我们来玩一玩吧!!
报错了!!为了赶作业,回头我再来完善
翻了翻源码我发现参数里面有个private
,默认是False
,就是说默认公开的,但是因为torch
版本和gradio
的版本匹配缘故,导致会出现错误。
我们直接解决出现问题的地方就好,使用下面的命令
cd /root/code/InternLM-XComposer
python examples/web_demo.py \
--folder /root/model/Shanghai_AI_Laboratory/internlm-xcomposer-7b \
--num_gpus 1 \
--port 6006 \
--private
而且我本来觉得只要把端口映射改成0.0.0.0:6006就可以跑了,然后我发现我失败了,还是不行,所以我采用了上边的方法
运行结果
创作图文并茂文章
输入标题,浪漫广西
给大家展示下成品