边缘计算[6]
全球最快开源大模型K2 Think推出:推理速度突破2000 tokens/秒,刷新性能纪录
K2 Think开源大模型发布,推理速度突破2000 tokens/秒(最高2730.4),成已知最快开源大模型之一。基于通义千问Qwen 2.5-32B架构,数学推理表现优异(AIME’24得分90.83),依托六大技术创新支撑高速与精准。基于通义千问架构,已在HuggingFace等开源平台发布,助力AI技术普及。
华为开源7B模型:快慢思考自适应 精度不减思维链缩短近50%
华为开源openPangu-Embedded-7B-v1.1大模型,创新“双重思维引擎”实现快慢思考自适应切换,采用渐进式微调训练。权威评测显示,通用任务(CMMLU)、数学难题(AIME)等精度提升超8%,思维链长度缩短近50%,效率精度双提升,同步推出1B边缘模型,开源推动行业创新。
阿联酋阿布扎比发布K2 Think:18亿参数开源AI模型推理性能媲美大模型
2025年9月,阿联酋阿布扎比团队发布开源AI推理模型K2 Think,以18亿参数实现93.5%推理准确率、32毫秒平均延迟,性能媲美35亿参数的GPT-X(94.2%)及28亿参数的DeepSeek Pro(93.8%),算力消耗降低40%,中小设备可高效部署。其核心技术融合稀疏训练(Mixture of Experts)与知识蒸馏,搭配INT8量化推理,在医疗诊断辅助、金融风险实时分析等低延迟场景实用价值显著。模型采用Apache 2.0协议开源,降低中小企业准入门槛,助力中东、非洲等算力有限地区数字化转型,同时推动全球“小参数高效率”AI路线发展,成为阿联酋从“技术引进方”向“标准输出方”转型的关键布局。
Recall.ai获3800万B轮融资,估值2.5亿加码AI对话数据基建
AI对话数据基础设施服务商Recall.ai完成3800万美元B轮融资,估值达2.5亿美元,由Bessemer Venture Partners领投。其核心产品为统一API/SDK,可快速集成14种主流会议平台,实现会议录制、转录及实时交互数据提取,支持与CRM、Notion等工具无缝对接,解决企业对话数据采集难、处理复杂问题。技术上具备强实时性(1秒内传输高清视频帧)、HIPAA/GDPR合规的Private Cloud方案及大规模算力支撑(日峰值处理3TB/秒视频数据),已服务HubSpot等超1500家企业,助力客户提升效率(如销售跟进效率提40%)并降低成本。融资将用于拓展电话/线下对话场景、部署边缘计算节点,瞄准年规模超100亿美元的视频对话AI市场,推动企业对话数据智能化应用。
滑铁卢大学与Intel突破脉冲神经网络:类脑算法与神经拟态硬件开启计算革命
脉冲神经网络(SNNs)作为模拟人脑脉冲放电机制的新兴技术,正引领AI能效革命。与传统人工神经网络(ANNs)不同,SNNs通过事件驱动计算实现超低功耗,在神经拟态硬件支持下迎来突破:Intel Loihi 2芯片能效比GPU提升300倍,已赋能奔驰车载感知(延迟降82%)、松下工业质检(5000帧/秒)等场景。滑铁卢大学团队算法创新更让SNNs性能跃升,动态控制误差比GRU低37%,功耗仅为ANN加速器1/8;其构建的250万神经元Spaun模型,可复现大脑认知功能,为类脑研究提供关键工具。当前SNNs在低延迟、高能效领域落地加速,未来随着硬件量产与算法成熟,有望重塑边缘计算、脑机接口等AI应用格局。
微软BitNet.cpp开源:CPU成百亿大模型新引擎,提速6倍降能耗82%
微软开源的BitNet.cpp框架,基于创新1-bit量化技术,让普通CPU成为百亿大模型新引擎,彻底摆脱GPU依赖。该技术通过二进制权重压缩,减少约90%内存占用,精度仅降2.3%。实测显示,消费级CPU运行100B模型推理速度达28.6 tokens/秒,较传统GPU方案提升6.17倍,能耗降低82.2%,内存节省81.6%。框架支持Llama3、Falcon3等主流模型,可广泛应用于边缘计算、个人AI助手、企业降本等场景。其开源特性推动AI民主化,加速“硬件去依赖”趋势,显著降低大模型推理门槛。