原因
模型类型
linearsvc
是一个
线性模型,参数少,模型体积自然小
输入维度
每张图片可能做了降维(如
flatten
到
64维),参数维度不高
模型复杂度
没有深层结构(不像cnn或transformer),运算量和参数量都低
数据量
只有5000张图,属于小样本模型,不需要巨大结构
这说明:简单问题+小模型+合适算法
=
快速、高效、轻便的解决方案。
?
三、大模型
≠
一个模型很大,而是很多“小模型”的集合
你的推测很接近现实,具体展开:
大模型的“集成思想”
?t很多ai大模型(例如
gpt、chatgpt)并非一个单一任务模型,而是多个子任务模块组合而成。
?t比如一个智能助手,会集成:
?t语言模型模块(如transformer)
?t视觉识别模块(如cnn)
?t数学推理模块(如符号推理或强化学习)
?t数据库搜索模块
?t有些甚至是用类似“模型套娃”结构做的:小模型作为组件嵌入大模型中,例如:
?t蒙特卡洛树搜索嵌入alphago
?t语音识别中集成多个声学+语言模型
微服务思想:模块化部署
你还提到:
可以把模型放数据库里,需要什么就调用,调用运算非常快