(支持模型微调)运行演示-本地智能化终端方案LocalAI开源项目分享会

252
0
2024-07-29 08:30:00
正在缓冲...
6
2
3
1
LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。它允许您在本地使用消费级硬件运行 LLM,支持与 ggml 格式兼容的多个模型系列。不需要 GPU 。
学无止境,一直在路上....
677播放
简介
(不需要GPU也能跑大模型)背景介绍-本地智能化终端方案LocalAI开源项目分享会
07:27
(支持模型微调)运行演示-本地智能化终端方案LocalAI开源项目分享会
17:29
(理解代码应用更高效)代码讲解01-本地智能化终端方案LocalAI开源项目分享会
15:46
(LocalAI支持分布式推理)代码讲解02-本地智能化终端方案LocalAI开源项目分享会
19:31
(离线智能终端的福音)分享总结-本地智能化终端方案LocalAI开源项目分享会
05:36
客服
顶部
赛事库 课堂 2021拜年纪