大型语言模型的大脑切除?

Sep 20, 2025     Author:sgt3v     HN Points:132     HN Comments:17
Share this

摘要: 用户反映在使用Azure作为后端进行LLMs和音频模型的产品中,模型性能在6个月的使用过程中逐渐下降,即使使用相同的消息和JSON响应,结果也变得越来越不准确。用户尝试了gpt-4o-mini、gpt-5-mini和nano模型,发现虽然gpt-5在某些方面与gpt-4o-mini相当,但速度慢且结果不佳。用户质疑微软的策略,认为这种做法对商业策略不利,并考虑将团队从Azure迁移到其他平台。

讨论: 上述内容主要讨论了大型语言模型(LLM)在使用过程中出现的问题和观点。包括模型质量随时间下降、模型性能不稳定、成本优化问题、模型透明度和审计性不足等。用户们对Azure AI Foundry和OpenAI等服务的使用体验提出了批评,包括不支持特定工具、性能问题和高成本等。同时,也提到了如何通过随机种子、提示和模型二进制文件的哈希值来验证模型的输出是否一致,以及对于LLM性能评估的讨论。

原文标题:The LLM Lobotomy?
原文链接:https://learn.microsoft.com/en-us/answers/questions/5561465/the-llm-lobotomy
讨论链接:https://news.ycombinator.com/item?id=45315746