Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。



Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。


苹果公司正加紧招聘推理模型领域专家,以解决其研究揭示的大型语言模型重大缺陷。招聘聚焦开发更准确高效的新型架构,重点强化推理、规划、工具使用和基于代理的LLM能力。
人工智能初创公司Viven利用大型语言模型和数据隐私技术,打造员工数字孪生,解决因休假或时区差异导致的关键信息缺失问题,避免项目停滞,降低时间成本。
大语言模型在数学几何题上表现不佳。GPT-4.1和Gemini-2.5-Pro虽在写作、编程领域优秀,但面对需画辅助线或函数图像的题目时频繁出错。根源在于模型擅长文本推理,却缺乏几何空间想象能力,无法精准脑中构图,导致错误结论。
Meta超级智能实验室推出REFRAG技术,使大型语言模型在检索增强生成任务中的推理速度提升超过30倍。这项突破性成果发表于相关论文,深刻变革AI模型运作方式。该实验室今年6月在加州成立,源于扎克伯格对Llama4模型的重视。
Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。