智能助手网
标签聚合 前端

/tag/前端

linux.do · 2026-04-18 01:15:29+08:00 · tech

(\ _ /) ( ・-・) /っ 和 Grok 4.20 的大力出奇迹 16 Agent 护法不同,4.3 是个更像 Genspark 智能体那种云 Computer 类型,就是可以写入文件、执行啥的。 不过这些其实御三家前端都可以,虽然像 Claude 模型本身只支持图文,但工具集成得很屌 ✓ ↑ 配额只是 Auto 层级的,未来应该也是多线程路线。 测试 Prompt(随便搜的头盔): 这是最新款的电饭煲头盔,请为这个产品设计一个酷炫的 Web 单页。文案、配图、交互全都交由你来自主决定(使用网上现有的或使用 AI 生图都可以)。 (\ _ /) ( ・-・) /っ Grok 写的前端: 银河 · 电饭煲头盔 | 2026 赛博厨房战甲 完成度很高,虽然产品完全理解翻反了。˃̣̣̥᷄⌓˂̣̣̥᷅ 让世界首富去理解什么是电摩头盔太为难了。 15 个帖子 - 12 位参与者 阅读完整话题

linux.do · 2026-04-17 21:46:01+08:00 · tech

如题,我用codex比较多,但是工作主要涉及客户端,对前端基本一窍不通,包括从设计到落地的工作流。目前做一个小项目发现直接让AI生成的网页可用,但是没什么设计感,配色与交互设计也比较呆板,跟最近比较火的一些项目的网页设计差太远了。我不相信它们都是自己手撕的,因此想请教下这种一般都是怎么实践的? 11 个帖子 - 5 位参与者 阅读完整话题

linux.do · 2026-04-17 18:20:52+08:00 · tech

看Codex 客户端推出了桌面控制自动调试前端的问题想尝尝鲜,下载下来后似乎只能读取win环境下的Codex配置文件夹。 平常的工作流和各类mcp/skills都在wsl2的Codex cli里,是否有一种办法让Codex客户端使用wsl2内的配置? 需求就是Codex客户端作为某种GUI,调用的还是在wsl内。 PS:我看到Codex客户端设置里有使用wsl子系统环境工作的选项,但没有复用配置文件的。 2 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-17 18:03:04+08:00 · tech

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 背景 前段时间基金估值消失了,本着轮子不嫌多的程序员思维,业余时间vibe coding了一个,俺不太玩美股,所以还没适配。 C++牛马不懂前端,发出来请各位佬提提建议。 项目链接 github.com GitHub - SurpassHR/fund-manager: 纯前端基金管理,净值查看、加减仓管理、当日估值。 纯前端基金管理,净值查看、加减仓管理、当日估值。 主要功能: 基金估值、跨设备同步基金、截图批量录入基金等。 通过github pages托管。 截图 大屏 (点击了解更多详细信息) 移动端 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-17 17:38:30+08:00 · tech

你是一位就职于苹果公司的顶级前端工程师。请创建一个包含CSS和JavaScript的HTML文件,用于生成动画天气卡片。卡片需要以不同动画效果直观展示以下天气状况: 风力(如:飘动的云朵、摇曳的树木或风线) 降雨(如:下落的雨滴、形成的水洼) 晴天(如:闪耀的光线、明亮的背景) 下雪(如:飘落的雪花、积雪效果) 所有天气卡片需要并排显示,背景采用深色设计。所有HTML、CSS和JavaScript代码都需包含在这个单一文件中。JavaScript部分需包含切换不同天气状态的功能(例如通过函数或按钮组),以演示每种天气的动画效果。 将前端显示效果优化得更精致流畅,打造出价值20元/月的精品天气应用既视感。 需要把上下文开大一点,写完大约10K+。一次写完的结果,没修改。 5060+DDR4,大概跑起来18tokens/s。 qwen3-6-35b-a3b-q4-k-m-v1.html.zip (8.7 KB) 5 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-17 13:54:15+08:00 · tech

本人前端开发,目前维护公司的几个海外项目。 这些项目都把业务代码、node_modules、多语言资源拆分成三个git仓库,然后多语言资源还是用在线excel维护,添加或者修改多语言都得走流程去改,改完之后自己手动执行脚本把excel转成json,再推到业务代码和多语言仓库; 更离谱的是这个在线excel是测试组的老大在维护 ?? 现在做新需求都不想去动多语言,甚至不想加依赖,不然还得多一个步骤,遇到比较简单的功能都是手撕实现 再加上项目频繁换人开发,再加上功能迁移,里面可以说是毒瘤屎山了,什么jquery跟vue互相操作dom,什么if else嵌套,一个消息类型的判断我都不明白怎么写了500多行的 只能说当初被公司名头骗了,现在上班如同坐牢,唉 13 个帖子 - 7 位参与者 阅读完整话题

linux.do · 2026-04-17 03:14:00+08:00 · tech

https://openai.com/index/codex-for-almost-everything/ 快速试用了一下,Computer Use 的主要卖点是可以在后台操作,不会占据前台空间。 在操作的时候,会有一个虚拟光标显示出来: 定时 Automation 是另一个比较有趣的功能,主要的特殊之处在于:它可以直接在已有的 Session 上继续,类似于每一段时间发送一条消息触发,保留全程的 Context. 那么以后做自动化的流程会类似于: 在 Codex App 中新开一个 Session,先对话操作一次。 让 Codex 设置一下自动化。 每次自动化运行都直接在已有的 Session 中继续。 不过这个做法应该也相当消耗 Token. Memory 系统实验性启动,在设置中打开即可: in-app Browser 还没试用,但看演示可以直接在浏览器中选元素,对前端开发、样式描述等很方便。 Remote SSH 是我心心念念了很久的功能,不过还没找到设置,似乎在 alpha stage,等会更新使用体验。 Remote SSH 需要在本地的 ~/.codex/config.toml 中添加 [features] remote_connections = true 远程机器的 default shell 需要设置为 bash,否则会报错。 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-16 23:37:59+08:00 · tech

就是用了ai也一年多了,从一开始的cursor搞邮箱转发试用3.7就开始用了,mcp现在用的就就那几个,skills也没有装几个,感觉好像还是看自己的提示词,也有让ai跑自己的项目然后弄一套最优方案出来,现在每天工作虽然说自己也一年多没怎么敲过代码了,就是有什么直接扔ai,有问题再扔给它,准确率感觉说不准,有时候很聪明,有时候又乱改我的东西,特别是现在cr的开发,自己都是切片式的喂它让他一块一块的改,就不敢说能全部放手高效的扔,佬们有什么新玩意教教 5 个帖子 - 3 位参与者 阅读完整话题

linux.do · 2026-04-16 17:17:07+08:00 · tech

RT 最近拿到一个前端实习的 offer,每天 400,公司食堂免费,还有零食健身房之类的,在五道口这边。 我是感觉 400 真的有点低了,一个月顶天了 8000 多块钱,然后租个房就花掉一半了,不知道佬们觉得怎么样 低了 还行 挺高的 点击以查看投票。 补充一下我的 bg: 在北京上学,社科学校社科专业大二,然后这个是我的第一段实习。身边人都说挺高的,大家也说挺高的? 40 个帖子 - 19 位参与者 阅读完整话题

linux.do · 2026-04-16 15:03:46+08:00 · tech

昨天发了一个glm5.1和opus4.6的对比,做的是后端管理系统的全栈开发,本来想让他们去做一个agent的,但是感觉麻烦,就做一个最基本的后端管理系统, 再次表明我的态度,我不是要真的去对比他们两款模型到底谁更强,说实话我都没用过满血的Claude模型,甚至国产模型我都是公益站调用的,也就gpt白嫖让我心安,但是最近free额度太少了,所以找替代品 所以我是从实际使用出发,从大家都能接触得到的一些渠道去使用这些模型,去感觉编码能力到底如何 关于我的后端管理系统的完成度可以看这篇帖子: 相同提示词从0→1写项目,glm5.1和opus4.6的区别 开发调优 项目效果是视频的形式,因为本人没有服务器,所以没办法把项目部署到服务器中给大家体验,而且也没啥体验的,看视频也能看出来大概 视频在notion中,链接如下↓ https://cherry-duke-610.notion.site/1-glm5-1-3434bf568bf4800cb23ec7f37786d50e?source=copy_link ,,,, 提示词如下↓ # 项目目标 开发… 这里我主要展示我最初发现端倪的我的“大屏展示”项目, 下面是我使用到的模型以及渠道: 首先是opus4.6去做,渠道测试了两个,一个谷歌反重力,一个GitHub copilot, 还有一个是使用Gemini3.1pro做的,后续使用opus4.6修复了一下bug,是在反重力中使用 还有Geminicli中使用3版本的模型,注意是“3”,不是“3.1pro” 老朋友gpt5.4也没落下,在codex中 还有让我眼前一亮的glm5.1,这个渠道就很多了,不过都没有直接使用官网订阅的渠道,因为我某种程度上来说是一毛不拔的,除非自己的毛被拔完了[流汗] 下面直接看效果: 1.谷歌反重力opus4.6 这个是从零到一全权负责 2.谷歌反重力Gemini3.1pro+opus4.6 这个是3.1pro负责第一遍的项目生成,后开一些地方有bug,使用opus4.6进行修复 3.GitHub copilot 中的opus4.6 全权负责 数据加载出来,我稍后补上 数据加载出来,我稍后补上 数据加载出来,我稍后补上 4.公益站的gpt5.4在codex中使用 全权负责 为什么是公益站,是因为我team会员没了,也不忍心充值plus,更懒得使用free可怜的额度,所以选择公益站拯救我,效果和官方账号渠道没啥区别 5.在codebuddy中使用glm5.1 全权负责 6.公益站中使用glm5.1 全权负责 7.公益站中使用glm5.1 全权负责 8.Geminicli中使用Gemini3 全权负责 对了,忘记说了,我是在claudecode中调用的glm5.1 !!!这些效果不是关键问题,因为人们的成见是一座大山 ,这座大山是真实存在的,多的我就不说了, 一个模型真的能够让人完全放心的把自己的项目交给它,这样的一个过程,从质疑→信任是非常困难的 所以希望glm能够越来越强吧,即使每个月去付费,但是能够使用稳定靠谱的模型也是值得的 2 个帖子 - 2 位参与者 阅读完整话题