沉浸式翻译的推销有点烦人了,真的有必要这样吗?我自己API坏了和你Pro会员有什么关系?顶多提示一行小字推销Pro,现在这整的80%内容全是推销吗? 15 个帖子 - 11 位参与者 阅读完整话题
如题,非水。 以下要求为必选项: 支持macOS和iOS的Safari 类似沉浸式翻译的双语对照 不要油猴脚本 以下要求为可选项: 配置文件支持iCloud同步 5 个帖子 - 4 位参与者 阅读完整话题
(翻译得有问题,“速率限制”的意思是5h/7d配额提升) 太好了,可以切换成opus4.6用更多的token了 一键换车指令:CC输入 /model claude-opus-4-6[1m] 7 个帖子 - 6 位参与者 阅读完整话题
IT之家 4 月 16 日消息,此前专注于文字内容的语言人工智能企业 DeepL 德国当地时间今日宣布推出专为实时口语交流设计的实时翻译产品套件 DeepL Voice-to-Voice。 DeepL Voice-to-Voice 套件包括 Voice for Meetings 会议实时翻译、跨平台的 Voice for Conversations、跨语言群组对话、API、专门化自定义等一系列功能,部分将在未来正式推出。 在 DeepL 委托 Slator 独立进行的盲测中, 96% 的语言学家更青睐 DeepL Voice 而非谷歌、微软、Zoom 提供的原生翻译解决方案 。 DeepL 创始人兼首席执行官 Jarek Kutylowski 表示: 今天,我们在翻译领域又迈出了新的一步:实时口语交流。我们的使命一直是打破语言障碍,而如今,我们已成功攻克了其中最难的一道。 DeepL Voice-to-Voice 语音通话功能让每个人都能用自己的语言自然交流,无需面对翻译带来的障碍或成本。我们将世界一流的语音模型与我们不断推向新高度的业界标杆级翻译人工智能相结合。 现在,专业能力才是关键,语言并不重要。
各位X上的grok翻译应该都已经推送了吧,效果很不错,不过一直以来我都觉得X的阅读体验很糟糕,得点进去详情才能看到楼中楼以及翻译。搞了个脚本把翻译按钮外置到帖子外和信息流中。翻译起来方便多了 安装地址 2 个帖子 - 2 位参与者 阅读完整话题
用GPT5.4翻译了一下纳瓦尔宝典作者最新出的《the book of elon》,看完了,挺好的一本书。中文版目录、注释、格式完整保留。 The Book of Elon 中文版完全版下载 2 个帖子 - 2 位参与者 阅读完整话题
目前接到一个类似于沉浸式翻译的需求,这个需求也需要支持富文本。如果只是单纯支持富文本,那么我想到的就是按富文本解析把文本按段落拆分,让AI分段落翻译就好。 但是除此以外还有个要求,就是某些文本是要求不可翻译的,例如「你好,{用户名}」这种,用户名就不可翻译。如果我按照前面那种方式去做,先把一个句子拆分成「可翻译」和「不可翻译」,等AI翻译后再把「不可翻译」的内容回填,就会出现这样一个问题:不同语言的语序是不一样的,可能中文是 A B 这样的语序,翻译成日语就变成了 B A,所以如果这时候按照原文的语序回填「不可翻译」的内容就会造成翻译后的内容语序错误。 问了问AI也没什么好的解决方法,所以想和各位佬友一起探讨一下这种情况一般是怎么做的? 1 个帖子 - 1 位参与者 阅读完整话题
需求是每天介绍解读openai claude公司自己的技术博文的 或者不是自媒体 比较好的翻译站也不错 12 个帖子 - 5 位参与者 阅读完整话题
sk-rghEjbF7J0U41KvOJZp6QpJdopCl7buAuXDjub26ioUUpZ2l 12 个帖子 - 8 位参与者 阅读完整话题
标题: 粤语双关梗广告文案,来自—PREFACE.AI 翻译: AI是你的敌人,还是你的工具? 有更准确翻译的佬友,可以评论留言,我学习学习) 这个话题我觉得挺有意思。 6 个帖子 - 6 位参与者 阅读完整话题
多账号登录软件 Ferdium 官网 https://ferdium.org/ 如何把沉浸式翻译应用到这个Ferdium 因工作需要,需要这样的多开账号和沉浸式翻译功能 可以是任何的一个沉浸式翻译;可以适度的有偿求助 感谢各位大佬 1 个帖子 - 1 位参与者 阅读完整话题
openrouter新出的模型openrouter/elephant-alpha不是llm模型?为什么让翻译一段英文出来快和乱码差不多的水平了 2 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 大家,分享一个昨晚用 AI 写的开源 PopClip 插件,该软件为 macOS 软件,安装插件并完成自定义端点配置后,可实现快速「扩写、缩写、润色、翻译、自定义处理」。 选中文本后的工具栏演示: PopClip 选项设置演示: 开源地址: popclip-ai-text-tools 插件文件,解压后安装: ai-text-tools.popclipext.zip (1.4 MB) Thanks, LINUX DO Moderators 6 个帖子 - 5 位参与者 阅读完整话题
无聊翻译了 0xeb/TheBigPromptLibrary: A collection of prompts, system prompts and LLM instructions 的提示词,并用 GitHub page 部署。 起初是因为觉得看英文太慢,部署完了也没兴趣看了。 权当做个备份。 以下是网址和仓库: The Big Prompt Library 中文版 TheBigPromptLibrary: A collection of prompts, system prompts and LLM instructions 有兴趣的佬可以看看。 欢迎提 issue 和 star。但基本是佛系维护了。 1 个帖子 - 1 位参与者 阅读完整话题
之前用腾讯翻译,很好。不知道咋滴关停了。 现在求一个好的网页翻译插件! 14 个帖子 - 7 位参与者 阅读完整话题
以沉浸式翻译为例,只将系统提示词改为: 你是翻译器,非AI助手。直接输出翻译后的结果而非原文,并保留原始格式。 现在将以下内容翻译为 {{to}} : {{text}} 其他留空就行。 分析一下提示词: “你是翻译器,非AI助手。”有一些破限功能,并防止它像助手一样回复。因为小模型很傻,“直接输出翻译后的结果而非原文”这里不加“而非原文”它就可能会不翻译,而且它听不懂“专有名词才不翻译”。因为一般是翻译成中文,所以用中文的提示词稍微好一点。 直接将默认的超长提示词优化成几句话了,节省无数 token。 附默认的系统提示词 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题
我最近想翻译几本文言文书看一看。目前想的方案是 (1)自己写代码,调LLM api翻译 (2)使用opencode,直接让它操作。佬们有什么好的建议吗 1 个帖子 - 1 位参与者 阅读完整话题
以下内容翻译自 BridgeMind 发布的帖子 “CLAUDE OPUS4.6 被削弱了。 BridgeBench 刚刚证明了这一点。 上周,Claude Opus4.6 在幻觉基准测试中排名第2,准确率达到83.3%。 今天对 Claude Opus4.6进行重新测试后,它在排行榜上跌至第10位,准确率仅为68.3%。 幻觉率增加了98%。 bridgebench.ai 刚刚确认,Claude Opus4.6 的推理能力已被降低,已经被削弱了。” 1 个帖子 - 1 位参与者 阅读完整话题
之前使用沉浸式翻译用了LongCat的LongCat-Flash模型,翻译都是有扣除token的。 然后我这两天想在claude code中使用玩一玩,发现我在里面的提问居然一点token都没有扣除。 不知道是bug还是啥。 2 个帖子 - 2 位参与者 阅读完整话题
不知道还有没有能够使用的公益站,目前l站内搜索的很多公益的沉浸式翻译模型现在都是无法使用的,但是现在看一些网址用google翻译有点担心有没有翻译问题。求佬友推荐一个配置~ 6 个帖子 - 6 位参与者 阅读完整话题