阿里云又放大招,Qwen2.5-Max震撼发布!作为超大规模的专家混合模型(Mo

帕帕科技说 2025-01-29 11:11:33

阿里云又放大招,Qwen2.5-Max震撼发布!作为超大规模的专家混合模型(MoE),预训练数据量超20万亿Tokens,真猛啊!

在多个主流评估里直接把当前最大开源密集模型Llama-3.1-405B和MoE模型DeepSeek V3全面超越了,性能更是和GPT-4o、Claude-3.5-Sonnet平起平坐~

更让人惊喜的是,现在大家能在Qwen Chat免费体验,阿里云还通过百炼平台对外服务,科技迷们别错过,赶紧去试试!

0 阅读:22
帕帕科技说

帕帕科技说

感谢大家的关注