Skip to content

【标题】小模型大用途:AI时代的“退路”还是“新选择”? 【核心内容】

  • 面壁智能发布了旗舰端侧AI大模型MiniCPM-2B,参数规模为20亿,性能超越了开源的Mistral-7B。
  • 微软开发了13亿参数的Phi和27亿参数的Phi-2模型,研究方向更偏向于小规模、低算力需求的模型。
  • 微软已组建新团队开发对话式AI,研究方向更偏向于小规模、低算力需求的模型。
  • 小模型的优势是训练和推理成本低、适合中低端GPU,更容易落地和赚钱。
  • 金融、工业、汽车等领域对小模型的需求大,轻量化模型更容易落地。
  • 阿里云推出18亿参数的通义千问-1.8B和Qwen-1.8B-Chat模型,用于端侧应用。
  • 微软、联想、三星、VIVO等公司也在推出轻量化模型的产品。
  • 轻量化模型和AI硬件的市场正在加速发展,可能成为2024年的AI硬件元年。 【评论内容】 小红书用户:这些大厂都在争相研发小模型,是不是意味着大模型的时代要过去了?小模型有很多优势,比如成本低、适合中低端设备,而且在金融、工业、汽车等领域需求大。看来小模型真的是AI时代的新选择啊! 微信公众号读者:大模型还是有它的用途的,不过小模型确实在一些场景下更具优势。大厂们都在研发小模型,看来它们也意识到了小模型的潜力。不过,小模型虽然好,但也不能完全取代大模型,毕竟大模型在某些方面的性能还是更强一些。

" 【标题】面壁智能发布20亿参数MiniCPM-2B,定义“小模型”新标准?

【核心内容】

  1. 面壁智能发布20亿参数MiniCPM-2B,定义“小模型”新标准
  2. MiniCPM-2B在多项主流评测榜单、中英文平均成绩均超越了开源的Mistral-7B
  3. 在工业、金融、汽车三个急需AI落地的领域,超大AI模型存在一定程度的背离
  4. “小模型”的优势在于省电、省钱、省时间,更易落地,更容易赚钱
  5. 微软、阿里云、联想等巨头均布局轻量化模型和端侧AI

【评论内容】 小红书用户:听说面壁智能发布的MiniCPM-2B被称为“小模型”,这会不会是未来AI的发展趋势呢?感觉“小模型”的优势还挺明显的,不仅成本低,而且更容易落地。

微信公众号读者:微软、阿里云等巨头都在布局轻量化模型和端侧AI,看来“小模型”确实有它独特的优势。不过,我还是觉得大模型更厉害,毕竟参数规模越大,模型能力越强。不过,对于工业、金融、汽车等特定场景来说,小模型可能更适合。"

上次更新于: