Skip to content

Latest commit

 

History

History
124 lines (80 loc) · 3.17 KB

YuanChatV0.8.md

File metadata and controls

124 lines (80 loc) · 3.17 KB

YuanChat V0.8 新增智能体生成框架(YuanPPT)

嗨,大家好,很高兴跟大家分享,YuanChat升级版本V0.8,欢迎大家下载体验。

更新内容

  • 增加YuanPPT幻灯片自动生成工具
  • YuanPPT支持大纲生成和重写
  • YuanPPT支持章节生成和重写
  • YuanPPT支持根据章节内容自动检索图片
  • YuanPPT支持幻灯片模版配置
  • YuanPPT支持YuanChat API Server 和 Ollama作为推理后端
  • 解决部分已知问题

开始

实现办公场景下的PPT智能体生成框架,可以通过自然语言对话方式,拆解相关问题、大纲生成、页面分配、自动配图等功能,可以通过源Chat 的API Server进行API 调用

  • YuanPPT启动
  • 配置推理服务

YuanPPT启动

克隆项目到本地目录中

git clone [email protected]:IEIT-Yuan/YuanChat.git
cd yuanchat/ppt

安装所需要的 python 依赖

pip install -r requirements.txt

运行 streamlit 项目

streamlit run app.py

推理服务部署

方式1:YuanChat API Server

  1. YuanChat安装

    YuanChat安装请参考文档:YuanChat安装部署

  2. YuanChat开启API Server功能

    apiserver

支持配置 API Server 功能。配置服务端口,开启服务(服务记录上次使用端口,默认为 5051)。服务开启后,可查看 API server 支持的模型列表;支持模型输出数据转换为 openAI 格式。 可以通过配置参数开启/关闭 API Server 功能,并设置 API Server 服务的端口号。

修改generate_ppt_stream.py中的IP addressport

host = "localhost"
port = "5051"

方式2: Ollama

安装 ollama 使用 Command 启动并运行 ollama serve

下载所需模型

ollama pull llama3.1:8b

修改generate_ppt_stream.py中的IP addressport

host = "localhost"
port = "11434"
已适配的模型

下表为 Ollama 提供的部分模型,已在是 YuanPPT 中完成适配,在 PPT 模板生成时表现良好

qwen mistral gemma llama
qwen2.5:7b mistral:7b gemma2:9b llama3.1:8b
该幻灯片生成器已经过全面调整和优化,以确保它集成并有效利用大模型`Yuan-2.0`系列及其他开源模型;之后我们将涉及更深层次的技术层面对接,包括数据接口、算法兼容性、性能调优等,增强用户体验的流畅性

使用

访问 URL: http://localhost:8501

开始界面

1.在文本框中输入一个主题;

大纲生成

2.PPT 生成后,按下载按钮下载 ppt;

下载PPT

3.如果要重建某些章节,请输入“修改第 XX 章”,按 Enter 键并重复 2 中的步骤.

修改章节大纲

  1. PPT 生成样例: