哈佛大学周四宣布,将公开一份包含近百万本公共领域图书的高质量数据集,任何人都可以利用它来训练大型语言模型和其他 AI 工具。 这份数据集由哈佛大学新成立的机构数据倡议 (Institutional Data Initiative) 创建,并获得了微软和 OpenAI 的资金支持。 其中收录的图书均是 Google 图书项目扫描的、不再受版权保护的作品。
图源备注:图片由AI生成,图片授权服务商Midjourney
哈佛大学周四宣布,将公开一份包含近百万本公共领域图书的高质量数据集,任何人都可以利用它来训练大型语言模型和其他 AI 工具。 这份数据集由哈佛大学新成立的机构数据倡议 (Institutional Data Initiative) 创建,并获得了微软和 OpenAI 的资金支持。 其中收录的图书均是 Google 图书项目扫描的、不再受版权保护的作品。
图源备注:图片由AI生成,图片授权服务商Midjourney
Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。流式传输响应:实时交互更流畅Ollama v0.8最大的亮点之一是新增了流式传输响应功能。用户在使用AI模型进行对话或任务处理时,可实时接收逐步生成的响应,而无需等待完整结果输出。这一功能显著提升了交互体验,尤其在处理复
近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。以往,许多公司投入大量资源以扩展计算能力,期望 AI 能够通过详尽
Mistral 公司近日发布了其全新的 Agents API,这是一个专为开发者设计的框架,旨在简化 AI 代理的创建,代理可以执行多种任务,例如运行 Python 代码、生成图像以及进行检索增强生成(RAG)。这一 API 的推出,旨在为大型语言模型(LLMs)提供一个统一的环境,使其能够与多个工具和数据源以结构化且持久的方式进行交互。Agents API 建立在 Mistral 的语言模型基础上,集成了多个内置连接器。这些连接器使代理能够在受控环境中运行 Python 代码、通过专用模型生成图像、访问实时网络搜索,并利
在近年来的人工智能研究中,思维链的概念越来越受到重视,尤其是在大型语言模型的训练和推理中。最近,西湖大学 MAPLE 实验室的齐国君教授团队首次提出了一种新颖的 “扩散式发散思维链”,这是一种为扩散语言模型量身定制的全新推理方式。传统的大型语言模型通常采用线性思维链,即通过逐步推理生成答案。然而,人的思维过程往往更为复杂,充满了非线性和跳跃性的特点。齐教授的团队认为,模仿这种发散思维将有助于提升模型的创造力和解决问题的能力。扩散式发散思维链
阿里巴巴今日正式发布QwenLong-L1-32B,这是一款专为长上下文推理设计的大型语言模型,标志着AI长文本处理能力的重大突破。该模型在性能表现上超越了o3-mini和Qwen3-235B-A22B,与Claude-3.7-Sonnet-Thinking达到相当水平。技术创新亮点QwenLong-L1-32B最大的技术突破在于其是全球首个通过强化学习训练的长文本情境推理模型。该模型基于QwenLong-L1框架开发,采用了先进的GRPO(Group Relative Policy Optimization)和DAPO(Direct Alignment Policy Optimization)算法,结合基于规则和基于模型的混合奖励函数,显著提升了模型在
近日,MLX-LM现已直接集成到Hugging Face平台。这一里程碑式的更新为Apple Silicon设备(包括M1、M2、M3和M4芯片)用户提供了前所未有的便利,使其能够以最高速度在本地运行超过4400种大型语言模型(LLM),无需依赖云服务或等待模型转换。这一集成进一步推动了本地化AI开发的普及,为开发者和研究人员提供了更高效、灵活的工具。MLX-LM与Hugging Face的深度融合MLX是Apple机器学习研究团队开发的一个专为Apple Silicon优化的机器学习框架,旨在充分利用M系列芯片的神经引擎(ANE)和Metal GPU的强大性能。MLX