会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
托尼不是塔克
玩转AI黑科技 www.tonyisstark.com
博客园
首页
新随笔
联系
管理
订阅
1
2
3
4
5
···
13
下一页
2025年4月12日
好消息!Grok3 API发布了,白嫖的1000 块能用上了
摘要: 一个多月前,我分享一个白嫖 XAI 的 150 美金(1093RMB) 攻略,但是当时只能用 Grok2,一直在等Grok3的到来! 现在xAI 下面最强的模型 Gork3 终于放出API 了。 Grok3 是马斯克旗下xAI 发布的大语言模型,被马斯克称为世界上最聪明的AI,使用了 20 万张 H
阅读全文
posted @ 2025-04-12 12:34 托尼不是塔克
阅读(790)
评论(0)
推荐(0)
2025年2月14日
所有Ollama用户请注意!!!你的IP可能已泄露
摘要: 刚刚学到一项非常硬核的“黑”科技,只要几个关键词,就能实现 Ollama 自由。 全世界几万台高性能带显卡的电脑供你使用。 添加图片注释,不超过 140 字(可选) 看看这个页面,美国,中国,德国,英国....一个独立 IP 背后就是一台电脑,有些可能还是服务器。 我实测了,随便找一个都可以使用,几
阅读全文
posted @ 2025-02-14 21:25 托尼不是塔克
阅读(470)
评论(0)
推荐(0)
我的“ DeepSeek 越来越闲了”!讯飞星火无限调用 API 攻略来了
摘要: 最近DeepSeek 确实挺忙,网页繁忙,API资源紧张。 添加图片注释,不超过 140 字(可选) 开源模型也很忙,被下载了 267万次!!! 添加图片注释,不超过 140 字(可选) 但是,我的 DeepSeek 要越来越闲了。 腾讯云的接口刚用上,讯飞星火的又来了。 添加图片注释,不超过 14
阅读全文
posted @ 2025-02-14 21:07 托尼不是塔克
阅读(834)
评论(0)
推荐(0)
2025年2月13日
我的“DeepSeek服务不忙了”,腾讯云671B满血模型无限量调用攻略!
摘要: DeepSeek R1虽然免费,但是基本到了无法使用的状态。一两轮对话后,就开始服务忙了。 好在这是一个开源模型,大量的第三方平台开始上线了。 上一篇我们就讲过硅基流动。 最近听闻腾讯云也上线了 DeepSeek-V3、DeepSeek-R1 满血版模型。 而且可以免费不限量使用。 具体规则如下:
阅读全文
posted @ 2025-02-13 23:39 托尼不是塔克
阅读(1466)
评论(0)
推荐(0)
DeepSeekR1+Cherry Studio使用白嫖API和开源软件使用满血版模型!
摘要: 使用Ollama本地运行, 使用Ollama+ChatWise可视化运行, 使用Ollama+ChatWise在Macbook Air M1 上运行。 今天再来说一个方案。 这个方案不是完全离线,但是模型能力会比离线的强。 可以完全免费尝试,有几百到几千万的Token可以用。 可以缓解DeepSee
阅读全文
posted @ 2025-02-13 23:34 托尼不是塔克
阅读(1959)
评论(0)
推荐(0)
DeepSeekR1 苹果macbook M1本地可视化运行!
摘要: 过年了,就带了一台 macbook air 8g,DeepSeekR1的消息还是铺天盖地的来,我就想着在这台电脑上也装一个吧。 经过简单的配置,最终也运行起来了,速度还可以。 我这是首款M系列笔记本,也是现在最低配的 M 系列笔记本。 这也就意味着所有M系列的苹果电脑都可以轻松运行DeepSeekR
阅读全文
posted @ 2025-02-13 23:26 托尼不是塔克
阅读(1235)
评论(0)
推荐(0)
2025年1月24日
DeepSeekR1本地可视化运行!同时支持GPT4,Gemini,Cluade,Ollama所有开源模型
摘要: 昨天使用Ollama在本地运行了DeepSeek R1这个可以深度思考的AI模型。通过这种方式可以快速体验模型,但是要长期高频使用的话,通过命令行这种方式终究是不太方便。 所以今天来分享一个可视的软件ChatWise。 添加图片注释,不超过 140 字(可选) 这是一个独立开发者开发的软件,界面简介
阅读全文
posted @ 2025-01-24 21:29 托尼不是塔克
阅读(2429)
评论(0)
推荐(0)
DeepSeek R1果然有点意思! Windows本地使用ollama轻松跑起来。
摘要: 这段时间国内外讨论DeepSeek的人都比较多,我印象比较深的是,Deepseek用较低的成本训练了一个不错的模型。另一个是说最近的R1可以匹敌chatgpt的o1。 对比chatgpt的模型很多,我也不知道是宣传而已,还是真的这么牛逼。所以准备本地运行一下看看。因为ollama上已经有这个模型了,
阅读全文
posted @ 2025-01-24 21:24 托尼不是塔克
阅读(7901)
评论(0)
推荐(0)
MiniCPM-o 2.6 加载INT4显存减半,以及声音克隆的用法!
摘要: 最强“小钢炮”MiniCPM-o 2.6的本地安装部署已经讲过了。 但是还是有一些问题,比如我在RTX3060上可以运行,但是要实时视频和语音非常卡,主要是因为需要18G显存,这个需求远超我本地显存,所以使用到了内存共享,速度自然慢很多。 当时的是原版模型,没用使用量化模型。今天来记录下INT4量化
阅读全文
posted @ 2025-01-24 21:08 托尼不是塔克
阅读(290)
评论(0)
推荐(0)
MiniCPM-o 2.6 本地部署记录,Windows+RTX3060全部跑通!
摘要: 上一篇中,大致聊了下国产小钢炮MiniCPM的特性,看起来很不错,可玩性很高。 今天,主要来说一下,如何在本地运行这个项目。 添加图片注释,不超过 140 字(可选) 配置过程花了一些时间,最终还是成功了,可以正常进行视频通话,语音通话,和聊天机器人。安装和测试过程中遇到了几个棘手的问题。下面就完整
阅读全文
posted @ 2025-01-24 20:51 托尼不是塔克
阅读(1057)
评论(0)
推荐(1)
1
2
3
4
5
···
13
下一页
公告