初试本地Ollama部署几种小型AI玩玩

最近看了点介绍文章,先下载安装了一个Ollama,它可以挂载不同的AI,操作比较简单,命令行对我来说不复杂。

同时,我的老机器上有一张华硕 RTX 2080Ti 的显卡,多年来没有发挥多少用途,这次也想尝试用它的CUDA加速AI的计算。Ollama会自动调用CUDA,只要显卡支持并且正确安装了驱动。

显卡数据.png

GPU利用率的图,是AI写文章的时候抓屏的,GPU的专用内存使用率挺高。

一共安装了5个小型AI,如下:

给各个AI出了同一道不算太难的题目,用5 5 5 1算24分,看看各个AI的表现如何。

很多AI并没有被吹的那么神,保持平常之心一点比较好.

转载本文请联系原作者获取授权,同时请注明本文来自丁祥欢科学网博客。

posted @ 2025-05-19 16:47  dingxianghuan  阅读(14)  评论(0)    收藏  举报