据报道,阿里巴巴的两大核心电子商务业务——淘天集团和国际数字商业集团,都专注于人工智能。 据悉,陶天集团已将AI业务从约20个团队关闭至4个,同时在内部发布了陶天自有的大型模型产品“图灵”。 此外,国际数字事业群的AI团队有100多人,模型培训师约1 3人。
12月13日,美图公司宣布推出移动AI图像创作工具WHEE,基于美图公司奇迹幻视大模型,提供一站式AI视觉创作服务。
据北京互联网法院官方微信消息,12月12日,北京互联网法院首次组成五人合议庭,依法公开审理全国首例“AI语音侵权案”。
本案中,原告尹某某以配音为职业,录制了多部音频作品。 尹某某无意中发现,自己的声音被AI化后,在一款名为“魔音工坊”的App上,对公众使用了“莫晓轩”这个名字**。 因此,尹某某以被告人的行为侵犯其发声权为由,将“魔音工坊”经营实体北京小文智能科技等五名被告起诉至北京互联网法院。 目前,该案仍在进一步审理中。
谷歌周三宣布推出一套新的医疗保健专用人工智能模型MediLM,旨在帮助临床医生和研究人员进行复杂的研究,总结医患互动等。 此举标志着谷歌在医疗保健行业将人工智能工具货币化的最新尝试。 MEDLM 套件包括一个大中型 AI 模型,均基于 MED-PALM 2 构建。 med-palm 2 是 Google 于今年 3 月首次发布的基于医学数据训练的大型语言模型。
12月13日晚间,AI官宣文心亿言插件**正式上线,包含覆盖办公效率提升、多模态内容理解生成、专业信息查询等多种使用场景的插件。
用户只需使用简单的指令,即可实现PPT生成、音频提取、思维导图制作等多场景、多模态需求。 目前可用的插件包括思维导图工具、ppt生成器和可以通过输入提炼关键信息的“助手”。
Mistral AI 近日发布了首个开源 MOE 模型 Mixtral 8x7b,并宣布将在 Moda 社区上线。
Mictral-8x7B是一个混合专家模型(MiXeTrueof Experts),由8个专家网络组成,70亿个参数,在能力方面,Mictral-8x7B支持32K令牌上下文长度,支持英语、法语、意大利语、德语和西班牙语,具有出色的生成能力,可以微调为指令跟踪模型。 该模型的 MT 工作台得分为 8 分3 分,使用 GPT35 相当。
OpenAI 创始人 Sam Altman 今天表示,OpenAI Startup** 已经启动了 Converge 2 加速器计划。 该计划面向使用人工智能重新构想世界的杰出工程师、设计师、研究人员和产品开发人员开放。 通过技术讲座、办公时间、社交活动以及与领先从业者的对话,OpenAI将探讨人工智能前沿建设中最重要的机遇和挑战。 此外,参与者将获得 OpenAI 初创公司的 100 万美元投资**,并加入他们创立的创作者社区。
据悉,2024年5月,OpenAI与Microsoft等投资方成立了规模达1亿美元的OpenAI创业基金,旨在推动医疗、教育、文化等行业的数十家AI创业公司的可持续发展。 2022 年 12 月,OpenAI 进一步启动了“融合”计划。
天眼查**显示,12月13日,深圳南瑞科技成立,注册资本2000万元,经营范围包括:人工智能应用软件开发;人工智能理论与算法软件开发;人工智能行业应用系统集成服务;智能机器人研发;智能无人机销售等 股东信息显示,该公司由NARI100%拥有。
12 月 13 日,谷歌旗下的 Deepmind 推出了人工智能图像生成器 Imagen 2。 根据介绍,Imagen 2 可以生成迄今为止任何 Google 型号中质量最高、最逼真的图像,同时严格遵循用户提示。
Imagen 2 最初通过 Google Cloud 的 Vertex AI 的 Imagen API 提供给开发人员和云客户。 谷歌计划向最终用户提供 Imagen 2,但首先希望将潜在的风险和挑战降到最低。 这包括安全措施,例如 synthid、用于标记和识别 AI 生成内容的工具包,以及限制有问题输出的技术保障措施。
12月14日,《自然》杂志公布“2024年度十大科学人物”,OpenAI首席科学家Ilya Sutskever入选。 除了常规的年度十大人物外,ChatGPT也上榜了。 据《自然》杂志报道,ChatGPT的加入是对旨在模仿人类语言的人工智能在科学发展和进步中的作用的认可。
据“南京农业大学校友会”官网消息,近日,南京农业大学信息管理学院王东波教授课题组在北京发布了《荀子》古书大语言模型。
据介绍,“荀子”大模型囊括了包括《四库全书》在内的绝大多数古籍,语料库超过20亿字,是学校团队联合中华书局古莲公司在国家社科重大专项“跨语言知识库建设与应用研究”的支持下推出的古籍加工研究智能工具。中国古代经典”。该模型由基座模型 xunziallm 和对话模型 xunzichat 两部分组成,用户还可以根据自己的需求,利用本地训练语料对基座模型进行微调,从而在古籍下游加工中达到更好的处理性能。