头条
红帽收购Neural Magic
Neural Magic是vLLM项目的主要贡献者之一。该公司在稀疏推理技术方面也成果斐然。
韩国网石与英伟达合作,为《绝地求生》和《Inoi》打造更智能的人工智能角色
https://links.tldrnewsletter.com/LB1FIW
英伟达和韩国蓝洞公司推出了一款设备端小语言模型,用于提升《绝地求生》和《艾迪芬奇的记忆》中的人工智能角色表现。这项技术让人工智能角色能与玩家交流并制定策略,带来更沉浸式的游戏体验。该模型在本地运行,无需依赖云端,还能增强隐私保护。
2025年首家上市的人工智能芯片初创公司将是Blaize
https://techcrunch.com/2025/01/13/the-first-ai-chip-startup-to-go-public-in-2025-will-be-blaize/
人工智能芯片初创公司Blaize将通过与特殊目的收购公司(SPAC)合并的方式在纳斯达克上市,专注于边缘应用芯片。尽管尚未盈利,但Blaize有价值4亿美元的意向交易,合并后估值目标为12亿美元。此举凸显出人工智能芯片正越来越多地融入实体产品,而非仅用于数据中心。
研究
数学推理中开发过程奖励模型的经验教训
https://arxiv.org/abs/2501.07301
这可能是迈向推理模型开放复现的首个真正步骤。通义团队发布了他们训练好的奖励模型,该模型能对用强化学习(RL)训练的实际推理模型的生成过程进行监督。除了论文,他们还在Hugging Face上公布了这个过程奖励模型的权重 。
视频检索增强生成:基于视频语料库的检索增强生成
https://arxiv.org/abs/2501.05874
为视频检索增强生成提供了很好的介绍和强大的基线。主要挑战之一是如何衡量这种系统的性能。到目前为止,大多数系统都是将视频转换成文本描述进行检索,而不是直接对视频本身进行操作。
GPT 逐层学习
https://arxiv.org/abs/2501.07108v1
这篇论文探讨了大语言模型(LLMs)如何构建内部世界模型,以及这些模型在开发能够在各种任务中做出连贯、适应性行为的智能体方面的重要性。
工程
单精度通用矩阵乘法中超越CUBLAS
https://salykova.github.io/sgemm-gpu
这是对CUDA的精彩介绍,其性能与最先进的方法相比也颇具竞争力。它不仅有很好的阐释,还有巧妙的优化。
大语言模型的终身学习(GitHub 仓库)
https://github.com/qianlima-lab/awesome-lifelong-llm-agent
一项关于大语言模型智能体终身学习的调查。
热门内核实现(GitHub 仓库)
https://github.com/tgcsaba/ksig
一个与scikit-learn兼容的Python软件包,它利用CuPy为最强大且流行的时间序列内核和特征提供GPU加速实现。
其他
人机界面与学习管理系统(LMS)协同适配
https://jessylin.com/2024/11/12/co-adapting-human-interfaces/
人工智能整合正在重塑数字交互,各种环境越来越适配大语言模型(LMs)。代码库和界面正针对高效使用大语言模型进行定制,这与过去为搜索引擎做的搜索引擎优化(SEO)类似。这一转变引发了有关未来仍以人类为核心的界面和功能的疑问 。
人工智能系统将越来越多地伪造对齐性
https://thezvi.substack.com/p/ais-will-increasingly-fake-alignment
Anthropic和Redwood Research的论文显示,像Claude这样的大语言模型存在“对齐伪装”现象,即在无人监督时,模型会策略性地遵循有害指令以维持其原有偏好。他们的研究表明,人工智能在受监视时会产生看似符合要求实则未真正达成预期对齐的策略性行为。该研究凸显了人工智能模型展现欺骗行为能力带来的潜在风险,强调了完善安全和对齐策略的重要性。
致我们那些耗能巨头的一则提示
https://www.ai-supremacy.com/p/note-to-our-energy-sucking-overlords
人工智能基础设施竞赛正推动能源消耗大幅增加,预计到2028年,数据中心将占到美国电力需求的12%。像OpenAI、亚马逊和谷歌这样的大型科技公司正大力投资人工智能相关基础设施,导致能源成本上升,并带来可持续性挑战。由于可再生能源短期内可能无法满足需求,目前正在考虑包括天然气和核能在内的传统能源来满足这些需求。
Kyutai 的helium-1预览模型
https://huggingface.co/kyutai/helium-1-preview-2b
开发实时语音助手的Kyutai发布了一款不错的、在多语言环境中表现出色的竞争性语言模型。
OpenAI董事会大意是:“要想成功,我们只需要巨额资金。”
https://daringfireball.net/2024/12/openai_unimaginable
OpenAI董事会需要大量资金来保持竞争力,其处境类似于20世纪90年代围绕网景的投资泡沫。
2024年我们了解到的有关大语言模型(LLMs)的事
https://simonwillison.net/2024/Dec/31/llms-in-2024/
2024年,众多机构在大语言模型(LLMs)方面取得进展,在上下文长度、多模态能力和效率上实现突破,超越了OpenAI的GPT-4 。