每一周,咱们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」,本期 Hugging News 有哪些风趣的音讯,快来看看吧!

社区活动

全球社区的 Keras Dreambooth 活动发布

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

咱们的全球 Hugging Face 社区正在举行一个运用 KerasCV 练习 Dreambooth 模型的活动,时刻是 3 月 7 日到 4 月 1 日。欢迎咱们参加!

  • 活动页面: hf.co/keras-dream…
  • Notebook: bit.ly/keras-dream…

一起不要忘掉参加咱们中国社区 与 PaddlePaddle 联合的举行的微调黑客松,以及 与百姓 AI 联合举行的谈天机器人黑客松活动。

开源库更新

Diffusers 现已支撑运用 ControlNet

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

感谢社区贡献者 Takuma Mori (@takuma104) 的巨大贡献,协助将 ControlNet 集成到 Diffusers 中,Diffusers 现已支撑运用 ControlNet。相似 Diffusers 中的其他 Pipeline,Diffusers 相同为 ControlNet 供给了 StableDiffusionControlNetPipeline 供用户运用。StableDiffusionControlNetPipeline 的核心是 controlnet 参数,它接纳用户指定的练习过的 ControlNetModel 实例作为输入,一起保持扩散模型的预练习权重不变。

更多详细情况和运用说明,请查看咱们的推文: 《运用 Diffusers 完成 ControlNet 高速推理》。

Gradio 3.20 现已发布,参加谈天机器人组件

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

除了谈天机器人组件,3.20 版的 Gradio 还参加了很多图像展示、下拉菜单、滑块等 UI/UX 的改善。查看 Gradio 官网了解更多: gradio.app/

Flan UL2 现已在 Hugging Face 上开源

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

Google 开源的预练习大语言模型 Flan-UL2 现已发布到 Hugging Face Hub,欢迎来这里了解更多: hf.co/google/flan…

与 HF API 交互的 huggingface.js 发布

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

运用 JavaScript 与 Hugging Face 交互,欢迎体验和贡献! github.com/huggingface…

内容更新

深度强化学习课程的最终一个单元内容现已发布

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

最终单元内容包含:根据模型的强化学习、离线与在线强化学习、RLHF(ChatGPT 背面的技能)、决策转换器、RL 中的语言模型等,快来学习吧! hf.co/deep-rl-cou…

AI 有温度 ❤️,运用机器学习进行救灾活动支撑

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

本年 2 月 6 日,土耳其东南部发生两次激烈地震,造成 4.2 万人逝世、12 万人受伤。一群开发者敏捷创建了一个名为「灾祸地图 (afetharita)」的使用,协助搜救团队和志愿者找到幸存者。两位 Hugging Face 的同事 Merve 和 Alara 也是他们中的一份子,并协助开设了一个 Hugging Face 组织帐户,经过 PR 进行协作,以构建根据 ML 的使用程序来接纳和处理信息。

咱们运用 Hugging Face Hub 上的机器学习模型,从求救者的交际媒体信息中提取地址和需求。经过与其他团队的合作,志愿者们还开发了一套用于评估地震灾区修建和基础设施危害的遥感使用,从而为未来的搜救举动供给支撑。

受限于文章篇幅,假如你想了解更细节的内容,请阅览这篇博文: hf.co/blog/using-…

ChatGLM 会成为 Hugging Face 趋势榜的第一名吗

Hugging News #0317: ChatGLM 会成为 HF 趋势榜的第一名吗?

ChatGLM-6B 是一个由清华大学知识工程研究室开源的、支撑中英双语问答的对话语言模型,根据 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技能,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

ChatGLM-6B 运用了和 ChatGLM 相同的技能,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语练习,辅以监督微调、反应自助、人类反应强化学习等技能的加持,62 亿参数的 ChatGLM-6B 现已能生成适当符合人类偏好的回答。

  • 来 Hugging Face 上点赞: hf.co/THUDM/chatg…
  • 在线体验: hf.co/spaces/mult…

以上便是本周的 Hugging News,这里给咱们的小编阿东一个大大的拥抱,并祝咱们度过一个幸福愉快的周末!