不管花言巧语如何,谷歌的开源GEMMA肯定是一件好事。 无论是感受到 Meta Mistral 的压力,还是当初 2 月**动态激励计划开源计划,Google 这次重新加入开源阵营,都会让开源社区的生态更加繁荣,也可以站在道德制高点上,在一定程度上谴责 CloseAI,给 OpenAI 打眼药。
之前谈到 Meta 的 LLAMA 2 时,我分析了一下,一方面 Meta 团队愿意开源,乐村天吹开源,保证 AI 安全; 另一方面,主要是因为它处于落后的位置,而闭源产品无法击败它,所以最好开放它,这样不仅可以得到社区的支持,还可以聚集大家的力量与openAI抗衡。 (像 Qianwen、Yi 和 GLM 这样的国内开源工作都做得很好)。
这个gemma主要有2b和7b两种尺寸,虽然不如骆驼那么完整,但工具链比较完整,易于部署。 可惜的是,技术报告还是模仿了OpenAI的风格,说了点什么,却说不多。
公告的评价与LLAMA-2进行了对比,甚至显示了7B可以对抗13B的姿态:
技术报告来回添加了Mistral-7B:
值得注意的是,有人指出,Mistral在这份技术报告中的得分仍然偏低,与之前的Qwen 15 公布时的数据汇总:
咱们说几句个人意见:就目前而言,对普通国内用户没有直接影响。
这种开源主要是基础模式,没有聊天版,只有英文版,对于国内用户和一般爱好者来说意义不大。 在这个阶段,在相同尺寸下,在性能方面超越LLAMA-2 7B不再是一项成就。
米斯特拉尔已经大大超过了LLAMA-2,并且将比米斯特拉尔更客观。 而被刷掉的SOTA就没有那么有意义了,它仍然取决于社区生态和大家的认可。 小型模型将进一步提高数据质量,今年将看到更多运行在设备端的应用和模型。
谷歌之前曾表示要把这个模型安装到手机里运行,现在有越来越多的小模型可用,05b、1.8b、2b…相比之下,似乎Microsoft的phi-2效果更好,模型越小,数据质量越重要。 最后抛出一个**体验的链接,毕竟是7b模型....如果过多地使用闭源商业模式,你会觉得7b效应相当差:
Stability AI 发布了 Stable Diffusion 3,提高了多主题提示的性能、图像质量和拼写能力。 加入候补名单:
prompt:epic **artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "stable diffusion 3" made out of colorful energy
Stable Diffusion 3 系列型号的范围从 800m 到 8b,为用户提供了多种可扩展性和质量选择。 Stable Diffusion 3 将 Diffusion Transformer 架构 (DIT) 与 Flow Matching 相结合,并将在不久的将来以技术报告的形式发布。
负责任的 AI 安全措施贯穿于模型训练、测试、评估和部署的整个过程中。 感觉有OpenAI这样的鲶鱼,国外的AI公司一直在不停地飞。 对于 Stability AI:2022 年 8 月 10 日 SD 10;
2022 年 12 月 1 日,SD 20 ;12 月 7 日,SD 21 ;
2023 年 4 月 13 日,SDXL 测试版; 6 月 22 日, SDXL 09;7 月 26 日,SDXL 10;
2023 年 11 月 21 日,SVD ** 生成模型; 11 月 28 日,SDXL Turbo;
2024 年 2 月 12 日,稳定级联