admin管理员组

文章数量:1612389

【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测

文章目录

  • 【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测
  • 禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。
      • 输入:
      • 输出:
      • 输入:
      • 报错输出:
  • AquilaChat 快速开始
    • 环境依赖安装
    • 安装相关依赖
    • 具体使用方式 / How to use
      • Fork 源代码:
      • 1. 推理/Inference
      • 效果测试
        • 输入1:
        • 输出1:
      • 输入2:
      • 输出2:
      • 2. 可监督微调/Supervised Fine-tuning(SFT)
        • Step 1: 配置模型/ Setup Checkpoints
        • Step 2: 修改参数/ Modify Parameters
        • Step 3: 启动可监督微调/Start SFT
    • AquilaChat 简介 / AquilaChat Overview
    • Aquila 模型细节 / Aquila Model details
    • 训练数据集/Training data
    • 证书/License

禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。

AquilaChat 写代码水平还不行(应该是代码数据集训练不够),问技术性问题(比如说:用golang实现冒泡排序算法)会有一定的概率报错:

 File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 41, in aquila_generate
    next_token = sample_top_p(probs, top_p)
  File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 84, in sample_top_p
    next_token = torch.multinomial(probs_sort, num_samples=1)
RuntimeError: probability tensor contains either `inf`, `nan` or element &

本文标签: 人工智能上手开源实战模型