V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  TimePPT  ›  全部回复第 1 页 / 共 130 页
回复总数  2595
1  2  3  4  5  6  7  8  9  10 ... 130  
@code0611 大公司做业务 LLM 部署和应用部署都是微服务多些,业务逻辑层如果需要配置单抽出来做配置中心多些,dify coze 这种低代码可视化配置都是纯运营托管的场景才用的多,但大多数场景根本不会有专有运营天天整 workflow

这个也不是我说的,基本上是业界共识,Anthropic 官方 Agent 指南里也提到了类似观点
Building effective agents
https://www.anthropic.com/research/building-effective-agents

When and how to use frameworks
There are many frameworks that make agentic systems easier to implement, including:

– LangGraph from LangChain;
– Amazon Bedrock's AI Agent framework;
– Rivet, a drag and drop GUI LLM workflow builder; and
– Vellum, another GUI tool for building and testing complex workflows.

These frameworks make it easy to get started by simplifying standard low-level tasks like calling LLMs, defining and parsing tools, and chaining calls together. However, they often create extra layers of abstraction that can obscure the underlying prompts ​​and responses, making them harder to debug. They can also make it tempting to add complexity when a simpler setup would suffice.

We suggest that developers start by using LLM APIs directly: many patterns can be implemented in a few lines of code. If you do use a framework, ensure you understand the underlying code. Incorrect assumptions about what's under the hood are a common source of customer error.

See our cookbook for some sample implementations.
运营还是开发?应用开发小公司 dify ,langchain 会问。大公司即使做 LLM 应用开发,但如果不是专门做 Agent 平台开发的基本不会问这块,因为生产环境基本不用这些。
10 小时 26 分钟前
回复了 dadadidada 创建的主题 音乐 有没有介绍歌曲创作背景的网站或者论坛?
这个其实挺难的,看纪录片,讲座,以及当事人的社交媒体会讲到一些。比如李思菘,小柯,阿鲲,胡彦斌这类音乐人的社交媒体账号发的视频会聊这些。还有大学课堂讲座讲到创作动机和创作背景,作品赏析会讲解。
1 天前
回复了 Suger828 创建的主题 程序员 请教大模型微调
对于 2:
func-call 跟一般监督微调的过程没啥区别,难点在于数据准备:至少要求包含场景、func 定义、预期调取的 func ,预期回复等。
面向业务的 func-call 相对好做,有业务场景,人工构造一些基本就够用。
但通用 func-call 模型就需要有大量的 api 定义和场景测试数据。

但做好其实都不容易,比如函数功能相似,会出现无法精准召回等问题。
还有 input 槽位信息缺失,需要多轮收集,LLM 要知道会话状态等,都需要很多工作要做。

如果没有特殊需要,建议直接调取通用 func-call 能力的 LLM API ,或者市面上有些开源的通用 func-call 模型,自己拿来用,或者再继续微调一下适应自己业务。
1 天前
回复了 s2555 创建的主题 Python 有人喜欢写爬虫用浏览器扩展来实现的吗?
playwright+无头浏览器,解决 80%问题
1 天前
回复了 ggggz 创建的主题 程序员 AI Agent 用什么框架?
公司活,一般都是自己写,这些工具极少有公司直接上生产的。自己独立开发或者随便玩玩,选个顺手的就行
2 天前
回复了 frank1256 创建的主题 旅行 日本 7 天旅行计划
东京确实不错,去年在东京住了半个多月,印象很好。
京都的话,各类小巷子什么的也很好逛很好拍。走走逛逛很休闲。
拍二年坂三年坂清水寺附近这种热门景点,想出片,建议找晴天早上八点前去。人多拍出来就游客打卡照了。
天气好了,鸭川沿岸可以走走,能感受到当地人的闲适。
如果喜欢和咖啡吃甜点,京都有很多不错的小咖啡馆,走累了可以调一个顺眼的 walk in ,基本不踩雷。
2 天前
回复了 TimePPT 创建的主题 摄影 意大利罗马的一些随拍
@nicelixin 是的,特别是罗马,佛罗伦萨,米兰这种传统旅游城市。有机会还要去😁
3 天前
回复了 TimePPT 创建的主题 摄影 意大利罗马的一些随拍
@smlcgx 是的,特地在许愿池许了愿,再次回到罗马😄
3 天前
回复了 TimePPT 创建的主题 摄影 意大利罗马的一些随拍
@WizardLeo 哈哈估计是因为我拉高了对比度,降低饱和度,做了一些全局和局部的色彩调整。其实应该都没有过曝。整体还是偏暗和中间调子多一些
3 天前
回复了 TimePPT 创建的主题 摄影 意大利罗马的一些随拍
@JustGoGoGO 还可以,热门景区也是人山人海,走街串巷闲逛倒是很舒服。
个人平均一年 2 部国产电视剧,十来部国产电视剧。欧美影视剧每年平均 60~90 部(完全取决于剧看的多还是电影看的多)
3 天前
回复了 callmebyfire 创建的主题 投资 大模型炒股有没有搞头?
量化交易有专门的模型算法体系,这个体系创建到应用比 LLM 的时间长多了,也成熟多了。

另外,DeepSeek 和幻方不是完全一拨人搞的。两边招人标准都不一样啊。
@murmur 哈哈哈想起去年跟朋友聚餐聊起的某八卦,某 DAU 过亿的厂,花一个 Q 把 LLM 融线上系统做推荐,AB Test 结果效果涨了零点几个点,成本翻十倍不止😂
可以等等?
x @sama
i think we are going to initially offer 10 uses per month for chatgpt plus and 2 per month in the free tier, with the intent to scale these up over time.

it probably is worth $1000 a month to some users but i'm excited to see what everyone does with it!

https://x.com/sama/status/1889679679696806103?t=9hxQLX6FSMbZX2vyJ6UCeQ&s=19
算命一直是高流量,从门户时代就有单独的星座运势频道/板块了。每个互联网阶段这部分都会被重做一遍。卖护身符、佛牌、开光首饰极其赚钱。

与之相应的还有萌宠,萌娃,育儿,两性,野史趣闻。
11 天前
回复了 junwind 创建的主题 程序员 搞 Ai 大模型的,都是 Python 首选吗?
推理阶段的应用层工程化都无所谓,因为部署完基本都是微服务/api 调用
模型训练微调用 python 多些,主要 PyTorch / Transformers 太方便了
底层 infra 各家都不太一样,我见过某小虎家有用 c++写的
@mumbler 哈哈,是的,这种叫`meta prompting`

其实更好玩的玩法是利用 Agent 实现 meta prompt——> prompt 执行——> 评估——> 改进循环。比网上吹的一众 Prompt 之神不知高到哪里去了(手动 doge )
1  2  3  4  5  6  7  8  9  10 ... 130  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   942 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 44ms · UTC 20:50 · PVG 04:50 · LAX 12:50 · JFK 15:50
Developed with CodeLauncher
♥ Do have faith in what you're doing.