LeoTalk AI周知 9: 算法or工程
这周内容不多,也没有什么特别有亮点的。
最近在思考算法和工程这两个东西。我们应该追求算法还是工程?前者更多是偏向研究和前沿探索,后者为Idea提供了实际应用落地的能力。
虽然我是坚定的模糊学科边界的支持者,但是我还是会觉得对于大部分人来说是会有侧重的,毕竟牛人双修的还是少数。算法非常吃学历,或者进一步挖一下,非常吃个人的“学术”能力,这个和学历的高低有一定的正相关性。而后者更注重实操,学历和能力的正相关性没有前者高。
没有算法也就没有大模型的出现,一代一代人不断研究和探索未知,技术才能不断发展,这个很重要,虽然现在模型增速放缓了,但是不代表未来也更远了,并且AI的发展本来也不是线形的,很多时候是跨越式的。
没有工程化,大模型很难进一步挖掘出商业价值,进一步普适。很多商业价值的创造并不在于前沿科技的突破,而是行业化、规模化,这个也符合我们过往几十年互联网和移动互联网的认知。在行业或产业中大规模应用多种技术,不同的结合手段和规模创新,可以产生很好的产品和应用,进一步创造很大的商业价值,或许还能进一步反哺研究。
其实我也不迷茫或困惑,我是偏工程侧的。只是最近看到不少青年朋友关于这块产生了很大的疑惑和撕扯感,会有一种很错配很怪诞的想法。或许问题的根源就不是算法还是工程的问题。
产品&模型发布
- OpenAI推出GPT 5.1,个人感觉没什么亮点需要关注
- 百度推出ERNIE-4.5-VL-28B-A3B-Thinking模型,多模态推理开源模型,
- World Labs推出Marble,李飞飞他们推出的首个世界模型
- 阿里抽调上百人团队准备打造千问APP,对标ChatGPT(也能理解,相对于豆包和DeepSeek,千问的C端产品认知一直很弱,一组数据:豆包1.59亿日活,通义只有7百万月活
- OpenAI推出群聊(部分地区)
- 百度推出多模态大模型ERNIE 5.0
- LM Arena推出Code Arena
- Cerebras推出MiniMax-M2-REAP-162B-A10B,基于minimax m2的一个内存更高效的变体版本
投资&商业
- 软银清仓Nvidia股票58亿美元,为了all in OpenAI和其他AI bets
其他阅读
- The Era of Agentic Organization: Learning to Organize with Language Models:提出AsyncThink,推理通过fork分叉最后再合并来提高效果,需要runtime来支持
和 这种特殊的token - Omnilingual ASR: Open-Source Multilingual Speech Recognition for 1600+ Languages:Meta FAIR推出的Omnilingual ASR,支持1600种语音的多语种语音识别,7B大小
- Scaling Agent Learning via Experience Synthesis
- SIMA 2: An Agent that Plays, Reasons, and Learns With You in Virtual 3D Worlds
- Memori:An open-source SQL-Native memory engine for AI
- Google发了一份上下文工程白皮书
Enjoy Reading This Article?
Here are some more articles you might like to read next: