另外,一直疑惑开了TUN模式,还需要开系统代理模式吗?有佬解答一下嘛?谢谢。 10 个帖子 - 10 位参与者 阅读完整话题
来一场紧张刺激的1小时开奖赛! 送3张无质保的plus卡。感谢各位佬友的信任与支持, 中奖将以私信方式提供激活地址与cdk 奖品详情: GPT Plus 月卡 * 3 。 活动时间: 开始时间:发帖时间 截止时间:4月18号 22:00 参与方式: 在本帖下任意回复即可。 抽奖规则: 每位用户仅允许参与一次。 使用 LINUX DO 抽奖程序 随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。 所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人 74 个帖子 - 71 位参与者 阅读完整话题
各位实际coding的时候3.6plus的效果和5.1对比怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K上下文,没有的话可能20-50K上下文了。( 所以我特别喜欢有核显的电脑 )显存比较紧急的话可以划分1层给CPU,可以拉高20K上下文应该 体感可以编程,没有什么问题 写了个时钟,还有个贪食蛇 相关说明 Apex量化的I-MINI GGUF表现真的很亮眼,损失感觉很小? Qwen3.6 35B A3B的上下文真的好便宜 模型在这里,I-MINI版本就13.3G(这里不加载视觉模块了,显存不够): Qwen3.6-35B-A3B-APEX-GGUF · 模型库 如果有Intel 358H, 338H 32G+1T, 或者AMD 890M, 780M 的用户也可以试试看,内存大可以选I-Compact的17G版本 部署环境 硬件 CPU 12450H 显卡 RTX 5060 Ti 16G 内存 单根 16G DDR4 3200 注意:显卡上没有接任何输出,BIOS设置的核显优先,界面渲染都交给了核显,如果开个渲染个界面可能就剩下13-14G显存,上下文只能开比较少或者拿一层给CPU,decode速度会降低25% 软件 后端 LM Studio 部署模型:Qwen3.6-35B-A3B-APEX-I-Mini.gguf Decode速度: 80tps 层数:全部放在GPU上 上下文:100K 关闭MMAP, 不保持模型在内存中 打开快速注意力,K缓存 V缓存量化均为Q8, Q4好像有BUG → 会导致Prefill非常慢 建议: 用来编程时,如果第一步没能做好,建议直接从第一步重开多试一次,应该会比修bug要好点,改代码bug能力没有写代码能力强的感觉 本地还能玩玩Heretic(虽然这个模型好像没什么感觉,RP不是很好,总之玩玩也不赖) 这个量化确实损失感觉没多少的样子,因为同样概率发生的bug我跑Q6量化的版本也有概率发生 对于天才编程佬们来说,模型的能力还是远远不够的,这篇文章没什么帮助,虽然如此,但是还是想要分享一下 如果发生长时间卡住,可能是模型跑出循环思考bug了,可以中断一下重新跑 题外话 话说L站没有本地部署模型的标签吗(逃 附加截图 2 个帖子 - 2 位参与者 阅读完整话题
我现在自己的账号已经完全开不了邮箱了,显示连接不到iCloud服务器,有查到好像大家说他的上限大概是750个邮箱,但是我一般来说创建一个就删掉一个,难道删掉的也会占用750个的额度吗?大家有知道的吗 2 个帖子 - 1 位参与者 阅读完整话题
现在年纪大了,代谢下降,体重上涨,体检报告都不敢看了 各位佬友友没有减脂的好方法推荐一下? 28 个帖子 - 18 位参与者 阅读完整话题
RT,目前搜索到的大部分都是ClaudeCode 第三方插件 Obsidian,但是习惯用codex之后,实在懒得折腾了…佬们有木有办法? 求指教 3 个帖子 - 2 位参与者 阅读完整话题
开通账号的plus后,我在cpa上通过oauth登陆,cpa这边认证成功了,为什么这里还是现实free,额度是空呢。 3 个帖子 - 3 位参与者 阅读完整话题
佬友们,我今年21岁,因为久坐腰疼,今天拍腰部核磁共振有L4-5轻度膨出了,佬友们都是写代码久坐的,一定要注意身体保护腰 11 个帖子 - 8 位参与者 阅读完整话题
各位佬,上个月填调查申请的gpt5的权限和额度现在还没通过,是再不开门,没法用了吗 2 个帖子 - 2 位参与者 阅读完整话题
GCP快到期了,各位佬有没有教程续转移账单,之前没有操作过怕搞错 5 个帖子 - 5 位参与者 阅读完整话题
L站的有没有拼车模块,想邀请几个伙伴一起上Claude的快车,是不是1级号没权限啊 8 个帖子 - 4 位参与者 阅读完整话题
这个是真的,感觉收割情怀主机玩家了,不过真的有人会去买么? 各位大佬可以来个投票: 支持必须买 狗都不买 纯路过 点击以查看投票。 from: 「NEOGEO AES+」主机2026年11月12日上市 1 个帖子 - 1 位参与者 阅读完整话题
各位佬好,最近在重度使用 AI 辅助写代码,对 Claude 的需求比较大,但一直被渠道和网络稳定性折磨。想请教一下大家目前市面上各类接入方案的实际情况。 我自己了解过并且试过一些渠道,体验都一言难尽: 官方账号反代(C号/池子反代): 这个最大的痛点就是极容易封号。稳定性完全看脸,经常写代码写到一半号没了,心智负担太重。 谷歌 Antigravity (Antig) 反代: 延迟极高,经常卡得死死的。而且给的额度非常少,稍微跑点复杂的逻辑或者上下文一长就不够用了,完全没法满足高频使用的需求。 最近看到市面上还有很多人在说 AWS 渠道 ,我个人的盲区比较大,想重点请教一下懂行的老哥: AWS 渠道到底是什么? 是指通过 AWS Bedrock 申请调用的官方 API 吗?还是别的什么操作? 稳定性和风控: 这个渠道的封号风险大不大?延迟表现如何? 其他方案求荐: 除了上述这些,大家目前在日常高并发/大上下文的开发场景下,还有什么相对稳定靠谱的获取 Claude 额度的路子? 提前感谢各位大佬解惑! 1 个帖子 - 1 位参与者 阅读完整话题
各位有遇到过吗?传输大概10G文件,中途就卡死不动了 8 个帖子 - 6 位参与者 阅读完整话题
LDC 以更完善更合理的方式回归了,各位公益佬们,开放 打LDC了 9 个帖子 - 9 位参与者 阅读完整话题
各位佬多多关照,有啥新人需要知道的事项吗? 7 个帖子 - 6 位参与者 阅读完整话题
感谢各位大佬点击该贴。 本帖用于求助各位大佬给些关于 GPU云 部署开源大模型的建议。 我的目的是通过GPU云部署开源大模型为自己提供api使用 欢迎各位佬从我的想法、到平台选择、羊毛攻略、模型选择提供建议 5 个帖子 - 3 位参与者 阅读完整话题
佬们使用claude桌面端有遇到过流量消耗特别大的情况吗?我这边桌面端app每天消耗4g左右,查了下社区说可能是创建cowork的vm环境在下载镜像,但是没找到解决方法。家宽节点流量少扛不住了 实在不行就只有回去用命令行cc了 1 个帖子 - 1 位参与者 阅读完整话题
各位好,潜水 L站 很久了,第一次发帖分享自己做的东西。 我做了一个叫「星河智剪」的 AI 短视频工具,主要解决一个痛点:很多想发短视频做营销,但不会剪辑,也没时间学 用起来很简单——上传几张图片或视频素材,输入一段文案(或者直接粘贴抖音/小红书链接自动提取文案),点一下就能生成带配音、字幕、BGM 、转场的短视频。整个过程大概 30 秒 批量混剪:一组素材 + AI 自动扩写多组文案,一次生成几十条不重复的视频,做矩阵号的应该懂这个需求 智能配音:接了 MiniMax 和火山引擎的 TTS ,按场景(探店、促销、品牌故事等)自动推荐合适的音色,有 29 种音色可选 智剪模式:用自然语言下指令,比如"加个慢动作"“叠一行文字”“换个轻快的 BGM”,LLM 解析意图后自动执行 链接提取:粘贴抖音/小红书链接,自动提取标题和文案 340+ 首 BGM 库:按场景分类,也支持根据文案语气自动匹配 技术栈是 Vue 3 + FastAPI + MySQL ,视频渲染走云端,手机端用 Capacitor 打包了 Android App ,也支持 PWA 直接用 送一波专业版兑换码,先到先得: 每个码可以兑换 1000 积分(够生成 100 条视频),在 App 里「个人中心 → 会员中心 → 兑换点卡」使用 66A92305AD3DFBA2 专业版 039DB76173963CA5 专业版 E769FD4564C17142 专业版 03114C279CF42B5E 专业版 8D6E4E43575F4D6F 专业版 529CDE2D908D4393 专业版 693768589B3B66BF 专业版 24C370EA4ECC0644 专业版 99CC27C220DC094C 专业版 1BE5AEA4C2EA52B2 专业版 用完了评论区吱一声,我再补。 体验地址: https://zj.xinghepay.com 欢迎各位试用吐槽,有什么建议或者想聊技术实现的都可以回复,我会一直在,谢谢大家 6 个帖子 - 6 位参与者 阅读完整话题