现在的豆包是真蠢还是装蠢?
本文转载于9090社区,帖子链接:https://qq9090.top/thread-600141-1-1.html
作者: SLSY 时间: 2026-3-27 14:30一周前的识别率大概还能80%
今天差到让人吐血,还继续大言不惭
image.jpg (74.81 KB, 下载次数: 0)下载附件2026-3-27 14:27 上传
image.jpg (9.15 KB, 下载次数: 0)下载附件2026-3-27 14:30 上传
作者: bartonj 时间: 2026-3-27 14:38
性能和吞吐量不够了吧?
作者: SLSY 时间: 2026-3-27 14:48
bartonj 发表于 2026-3-27 14:38
性能和吞吐量不够了吧?
退步到然人认为是故意找茬,就想让你删除它
作者: gigi40995 时间: 2026-3-27 14:59
最近豆包确实明显退步,专家级别都会有明显逻辑漏洞
作者: bluepolar 时间: 2026-3-27 16:21
这个识别率,纠错要累死
作者: java 时间: 2026-3-27 16:29
厂商:没费钱 凭啥浪费算免费用
作者: 小白鸽 时间: 2026-3-27 16:31
本帖最后由 小白鸽 于 2026-3-27 16:34 编辑
你看我之前发过帖子
http://bbs9090.com/thread-598887-1-1.html
,突然变差过几天就恢复了。今天让豆包写了个数据库的脚本,也是来回折腾修改了半天才跑通
作者: 1069 时间: 2026-3-27 16:46
你得第一步,让它把照片P清楚。然后再识别
作者: SLSY 时间: 2026-3-27 17:02
1069 发表于 2026-3-27 16:46
你得第一步,让它把照片P清楚。然后再识别
这个已经很清楚了,而且,两三周前第一次用的时候,正确率是让人欣喜的
可能没有去充钱,背后的( )不干了
作者: marktw 时间: 2026-3-27 17:04
他们算力严重跟不上。
国外的不让买,国产的没有用,你们说咋办。
只能后台改推理参数,挑战大众极限,你们受不了,要走的时候,就改回来一点。
我这边才惨,调用的api,同时调用的4个大模型,豆包是最费钱的。
作者: yanxin 时间: 2026-3-27 17:16
所以,为啥中国调用token最多,因为要反复调用
作者: fjmdj1127 时间: 2026-3-27 17:27
免费的将会是最贵的。。
作者: feifeigege 时间: 2026-3-27 17:27
花钱买了gpt和gemini之后,就在也没有正眼看过国内的垃圾
本文转载于9090社区,帖子链接:https://qq9090.top/thread-600141-1-1.html