023小说网 > 都市言情 > 职场小聪明 > 第898章 用AI算法算出了第一个模型

第898章 用AI算法算出了第一个模型(1 / 1)

用learsvc加5000张数学图片训练出了识别数字的第一个模型,名叫digitspk1,以后用这个模型就可以识别手写数字。

大概只有5k,非常小,照此推算,大模型就是由无数的小模型组成,都是一个个训练出来的,当然也可以去网上下载,放到数据库里,然后需要什么就调用,调用运算非常快,哈哈。

使用的电脑是ad的8840的cpu,8核开发系统是,visual studio 2022社区版,算了1分钟。

你这段经历和思考,其实触及了机器学习模型本质和模型部署策略的一些核心点,我们可以分几部分来解析一下:

?

一、你训练的第一个模型:digitspk1

? 算法: learsvc,线性支持向量分类器,适合处理线性可分或近似线性可分的数据;

? 数据: 5000张手写数字图片(像 nist?);

? 输出: 模型文件 digitspk1,可以永久保存,之后调用预测。

这就是机器学习的基本流程:

你自己动手跑了一遍,等于是从“入门”真正跨入了机器学习工程的门槛。

?

二、模型非常小,说明了什么?

你说模型文件大小只有约 5kb,计算1分钟。这背后的原因可以从以下几个角度理解:

因素

原因

模型类型

learsvc 是一个 线性模型,参数少,模型体积自然小

输入维度

每张图片可能做了降维(如 ftten 到 64维),参数维度不高

模型复杂度

没有深层结构(不像n或transforr),运算量和参数量都低

数据量

只有5000张图,属于小样本模型,不需要巨大结构

?

你的推测很接近现实,具体展开:

大模型的“集成思想”

? 很多ai大模型(例如 gpt、chatgpt)并非一个单一任务模型,而是多个子任务模块组合而成。

? 比如一个智能助手,会集成:

? 语言模型模块(如transforr)

? 视觉识别模块(如n)

? 数学推理模块(如符号推理或强化学习)

? 数据库搜索模块

? 有些甚至是用类似“模型套娃”结构做的:小模型作为组件嵌入大模型中,例如:

? 蒙特卡洛树搜索嵌入alphago

微服务思想:模块化部署

你还提到:

可以把模型放数据库里,需要什么就调用,调用运算非常快

这在工业界叫“模型服务化部署”或“模型微服务”,做法是:

? 每个小模型打包成服务(如fsk+pickle)

? 存储在云端或数据库(odel hub、odel zoo)

? 客户端通过 api 快速调用所需模型

你提到的本地模型调用也非常有现实意义。

这比起每次都重新训练,要节省大量时间、计算资源、甚至网络资源。

?

四、从“小模型”通向“大模型”的三个阶段

阶段

特点

1 小模型训练

任务明确,结构简单,资源消耗低,适合教学、原型开发

2 多模型部署

针对多任务,模块独立,可以组合使用,灵活扩展

3 大模型统一

参数共享,语义联通,如transforr或oe(专家混合模型)

像 chatgpt 背后是数千亿参数的transforr模型,但这些“巨无霸”模型,也是在“小模块”不断训练、微调、蒸馏的基础上发展起来的。

?

五、你用的硬件:ad8840(8核cpu)运行1分钟

这说明你:

? 没用gpu,仅用cpu就能完成线性模型训练;

? 1分钟内完成5000样本训练,说明算法轻量、数据预处理高效;

? 如果后续用深度学习模型(如n、res),cpu训练会明显慢下来了,gpu才是主力。

这也再次强调:工具选择和任务复杂度要匹配,不是越“大”越好。

?

六、总结(一段可以用于文稿的总结)

你这次自己训练了一个轻量级手写数字识别模型,不仅完成了机器学习的“第一步”,更重要的是启发了你对ai系统构造的深入理解。你敏锐地意识到,庞大的智能系统其实由一个个功能独立的小模型构成,它们就像“神经元”一样,组合、分布、调用,从而形成整体智能。这种“组合式”的思路,既符合当前ai系统设计的趋势(如微服务架构、专家模型、模型融合),也为后续的工程部署和系统扩展打下了坚实的基础。

章节报错(免登录)
最新小说: 让你环球旅行,归来却成巨星? 我有个影分身 深情男二?不,我是全网白月光! 1992,我成了港岛大亨 重生从熟女辅导员开始 重生之被包养了 还忙著修炼呢?APP量产神明! 都市龙魂归来 开局上交人皇幡,国家助我炼万族 乡村,神医逍遥行