该文被密码保护。 阅读全文
posted @ 2024-09-20 16:16 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 利用tirpc库实现简单的客户端和服务端 来源 https://www.hlovefp.cn/blog/post/125.html 演示系统:openEuler release 22.03 LTS 1. 准备环境 Bash yum install rpcgen -y # rpcgen命令 yum - 阅读全文
posted @ 2024-09-11 15:46 lsgxeva 阅读(10) 评论(0) 推荐(0) 编辑
摘要: qtchooser -install qt6 $(which qmake6) https://askubuntu.com/questions/1460242/ubuntu-22-04-with-qt6-qmake-could-not-find-a-qt-installation-of In Ubun 阅读全文
posted @ 2024-07-18 13:18 lsgxeva 阅读(37) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-06-24 09:34 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: mcc mnc list 来源 https://www.mcc-mnc.com/ MCCMNCISOCountryCountry CodeNetwork 289 68 ge Abkhazia 7 A-Mobile 289 88 ge Abkhazia 7 A-Mobile 289 67 ge Abk 阅读全文
posted @ 2024-06-06 14:56 lsgxeva 阅读(26) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-05-17 18:46 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: KAN: Kolmogorov–Arnold Networks 学术论文全译 来源 https://zhuanlan.zhihu.com/p/696001648 KAN: Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 讨论Ap 阅读全文
posted @ 2024-05-12 09:54 lsgxeva 阅读(1453) 评论(0) 推荐(0) 编辑
摘要: 经典译文:Transformer--Attention Is All You Need 来源 https://zhuanlan.zhihu.com/p/689083488 本文为Transformer经典论文《Attention Is All You Need》的中文翻译: https://arxi 阅读全文
posted @ 2024-05-12 09:52 lsgxeva 阅读(241) 评论(0) 推荐(0) 编辑
摘要: Berkeley vLLM:算力减半、吞吐增十倍 来源 https://zhuanlan.zhihu.com/p/697142422 随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。 阅读全文
posted @ 2024-05-12 09:45 lsgxeva 阅读(547) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-05-09 19:25 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑