aloxaf 最近的时间轴更新
aloxaf

aloxaf

V2EX 第 457420 号会员,加入于 2019-12-04 18:50:00 +08:00
今日活跃度排名 537
aloxaf 最近回复了
5 小时 14 分钟前
回复了 sn0wdr1am 创建的主题 程序员 GitHub Copilot 免费使用是什么意思?
5 小时 16 分钟前
回复了 sn0wdr1am 创建的主题 程序员 GitHub Copilot 免费使用是什么意思?
如果没用学生包的话,那概率就是 GitHub 认定的「流行」开源项目的维护者(我也不知道流行的标准是什么,反正 GitHub 文档是这么说的)
有这个身份就可以一直白嫖 GitHub Copilot ,你看看你的邮箱,GitHub 应该每月会给你发「 Your GitHub Copilot access has been renewed 」的邮件
9 小时 42 分钟前
回复了 rihkddd 创建的主题 程序员 推荐一个面试算法题
我印象最深的是编程随想的关于打印前 N 个质数的题目,很有启发性:任何人都能做出来,但是又有足够的优化空间来考察水平。
1 天前
回复了 jlak 创建的主题 程序员 感觉编程辅助工具都在卷 Agent 而不是补全
因为 Agent 实现起来简单啊。

补全这个确实要点技术水平的,Copilot 的 Next Edit 预测试了几天,比 Cursor 差太远了——
1. 响应速度比 Cursor 慢
2. 很多时候我认为应该给出建议的场景它一动不动
3. 完成一批编辑后,Cursor 没啥活干了一般会给个无伤大雅的光标位置建议,Copilot 这个时候就会开始发癫,要么建议一些莫名其妙的函数,或者建议我做出一些迷惑修改(比如删掉我的 export )

Zed 前段时间放出了一个开源的编辑预测模型 Zeta ,有了开源样板之后,后面大家应该也要卷起来了。
@moyufjm123

> 那要是知识库很大,上下文很多,token 岂不是消耗很快?

理论上是的,但是一般来讲,只有被匹配到的一段文本(和它们的上下文)会被发送给 LLM ,而且很多工具只会发送匹配度最高的 N 段文本,当然代价就是准确性降低。

> 涉及多次问答会不会重复发送上下文?

会,但有的模型是支持缓存的,比如 OpenAI 和 DeepSeek 连续对话时会自动缓存上下文,命中缓存就有折扣。不过也有模型比如 Claude 和 Gemini 得手动触发缓存,很多工具压根就没有适配……
嵌入模型是用来把文字转成向量的,这样就可以把文字的相似度匹配转成向量的相似度匹配,这样一来更快,二来还能匹配语义上相似但实际不同的句子。
@Zenon #53 我用的是 fcitx5 ,将全局选项里的「激活输入法」和「取消激活输入法」分别设置为右 Shift 和左 Shift 即可。
@iX8NEGGn 我在 linux 下用的就是方法 2 ,左 shift 始终是英文(考量到游戏和快捷键一般用左 shift ),右 shift 始终是中文。
@beyondWALL 一直想换 Pixel ,奈何 Tensor 一直不给力啊
我的感觉和你一样,像大型屎山项目,由于你对业务和项目本身都非常了解,当有新需求时,你很快就能判断出最合理的实现方式。但 AI 不行,即便有 RAG 和手写 .cursorrules 的加成,你还是会花费大量的时间来纠正它的思路。
具体到实现上更蛋疼,如果这个项目用了大量轮子或者小众的库,那 AI 生成的代码大概率是错的。Cursor 还好,可以添加自定义文档(论好好写文档的重要性),有些工具压根就没考虑过这个问题。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2792 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 15ms · UTC 13:36 · PVG 21:36 · LAX 05:36 · JFK 08:36
Developed with CodeLauncher
♥ Do have faith in what you're doing.