其实吧, 从前天开始就已经开始在WEB端开始尝试了.
但作为程序员, 必须通过API玩一玩, 毕竟直接调用API是最能直观感受一个模型的途径. 他省去了一些外部影响.
集成
昨天集成了它的API到我的网站和APP上, 大概长这样:
可以看到, 它在读取图片时, 经过了一个Image Viewer的步骤, 这是因为MiMo这个大模型目前还不是一个多模态模型, 所以我将GPT 4o的多模态能力嫁接给了它, 毕竟GPT是老外搞的, 它认不出唐僧来也很正常哈.
整个集成过程出奇的顺利, 他对工具调用的支持还是不错的.
但是也有一些问题, 昨天有出现, 今天目前还没有遇到过.
比如在快思考模式下, 输出了疑似思考的内容:
在数据库里查看, 发现还带了一个think的结束符:
看来是蒸馏了Deepseek的一些东西在里面, 希望不要继承Deepseek的思考循环的问题.
迭代
今天加上了慢思考模式, 我把它分成了两个模型mimo-v2-fast和mimo-v2-fast-think默认是慢思考模型.
感受
快, 太快了!
最直观的感受就是, 太快了, 比gemini flash系列都要快好多.
代码能力不差
网上太多让他写html的测评了, 我就不说了, 在实际使用中, 让他试着解决了一些项目上的代码问题. 效果跟gpt5.1差不多.
回复过于拟人化
字面意思.
写在后面
- 这不是一个测评文章, 我也没有用什么专业的数据和评测标准去测评, 仅代表我个人集成过程中和使用过程中的一些看法.
- 关于文章中提到的网站, 大家也可以进去试试, 这应该是第一个将MiMo尝试扩展多模态能力的网站了:
集成了Mimo的Lite-GPT