本地运转多种大言语模型:一行代码即可完结 | 开源日报 No.167

ollama/ollama

Stars: 33.5k License: MIT

本地运转多种大言语模型:一行代码即可完结 | 开源日报 No.167

ollama 是一个轻量级、可扩展的本地言语模型构建和运转框架。

  • 供给简略的 API 用于创立、运转和办理模型
  • 包含丰厚的预构建模型库,方便在各种应用中运用
  • 支撑从 GGUF、PyTorch 或 Safetensors 导入自定义模型
  • 能够经过命令行进行多种操作,如创立、拉取、删去和仿制模型等

dair-ai/ML-YouTube-Courses

Stars: 12.6k License: CC0-1.0

ML-YouTube-Courses 是一个收集整理 YouTube 上最新的机器学习/AI 课程的项目。 该项目主要功能、要害特性、中心优势包含:

  • 收集整理了一系列最新和优质的机器学习课程
  • 涵盖了各种范畴,如机器学习、深度学习、自然言语处理等
  • 供给了丰厚多样的教育资源,方便用户快速获取相关常识

ardanlabs/service

Stars: 3.2k License: Apache-2.0

service 是运用 Kubernetes 在 Go 中编写服务的开始东西包。 该项目旨在供给一个经过验证的起点,以减少将新项目投入生产所需的重复使命。它运用最小依靠联系,完成成熟代码,并遵从 Go 的最佳实践。该项目为工程师们逻辑地布置了全部,以尽量减少猜测,并使他们能够快速树立对项意图心智模型。

  • 供给用于构建生产级可扩展网络服务应用程序的开始点
  • 运用范畴驱动、数据导向架构
  • 可在 Kubernetes 上运转
  • 运用最小依靠联系和符合常规代码
  • 遵从 Go 最佳实践

wenda-LLM/wenda

Stars: 5.9k License: AGPL-3.0

本地运转多种大言语模型:一行代码即可完结 | 开源日报 No.167

wenda 是一个 LLM 调用平台。 该项目旨在完成针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及常识安全和私密性问题。

其主要功能、要害特性、中心优势包含:

  • 支撑多种大言语模型
  • 自动脚本功能
  • 常识库支撑
  • 多用户并行运用等

hiyouga/ChatGLM-Efficient-Tuning

Stars: 3.4k License: Apache-2.0

ChatGLM Efficient Tuning 是一个基于 PEFT 的高效 ChatGLM 微调项目。该项意图主要功能是对 ChatGLM-6B 模型进行微调,运用了 PEFT (Prefix Encoding for Fine-Tuning) 办法。

以下是该开源项意图要害特性和中心优势:

  • 支撑 LoRA、P-Tuning V2、Freeze 和 Full Tuning 等多种细粒度微调办法。
  • 供给丰厚的数据集挑选,包含 Stanford Alpaca、GPT-4 Generated Data 等等。
  • 能够在单个 GPU 或分布式环境下进行练习,并支撑强化学习与人类反应 (RLHF) 练习办法。
  • 具有评价模型质量和生成预测成果等功能。

经过这些特性和优势,ChatGLM Efficient Tuning 为用户供给了一套完整而灵活的东西来完成对 ChatGLM 模型进行高效微调。无论您是想尝试不同类型的微调办法还是需要根据自定义数据集完结使命,在这个开源项目中都能找到适宜的解决方案。