首页
系统
动态
电子资讯
硬件
数码
软件介绍
网络软件
系统工具
应用软件
图形图像
多媒体
编程开发
字体下载
登录
标签
LLMs
LLMs之ERNIE 3.0ERNIE 3.0 Titan:《ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language
LLMs之ERNIE 3.0ERNIE 3.0 Titan:《ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Ge
Titan
Large
LLMs
ERNIE
Scale
admin
11小时前
5
0
LLMs之InstructGPT:《Training language models to follow instructions with human feedback》翻译与解读
LLMs之InstructGPT:《Training language models to follow instructions with human feedback》翻译与解读 导读: &g
Training
language
LLMs
InstructGPT
Models
admin
11小时前
4
0
LLMs之Koala:《Koala: A Dialogue Model for Academic Research一款针对学术研究的对话模型》翻译与解读
LLMs之Koala:《Koala: A Dialogue Model for Academic Research一款针对学术研究的对话模型》翻译与解读 导读:2023年4月3日伯克利大学发布Ko
学术研究
模型
dialogue
Koala
LLMs
admin
3天前
8
0
解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展
解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展 1.简介 Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,如算术
解锁
新发展
能力
技术
LLMs
admin
7天前
6
0
LLMs之GopherChinchilla:《Training Compute-Optimal Large Language Models》的翻译与解读
LLMs之GopherChinchilla:《Training Compute-Optimal Large Language Models》的翻译与解读 导读:DeepMind 2021 年发表
Chinchilla
Training
LLMs
Gopher
Compute
admin
8天前
6
0
LLMs模型速览(GPTs、LaMDA、GLMChatGLM、PaLMFlan-PaLM、BLOOM、LLaMA、Alpaca)
文章目录 一、 GPT系列1.1 GPTs(OpenAI,2018——2020)1.2 InstructGPT(2022-3)1.
模型
LaMDA
GLM
LLMs
GPTs
admin
8天前
4
0
LLMs:《Efficient And Effective Text Encoding For Chinese Llama And Alpaca—6月15日版本》翻译与解读
LLMs:《Efficient And Effective Text Encoding For Chinese Llama And Alpaca—6月15日版本》翻译与解读 导读:本文介绍了改进L
日版
Effective
Text
LLMs
Efficient
admin
11天前
5
0
LLMs之RAGLong-Context:《检索增强生成还是长上下文LLMs?一项综合研究与混合方法Retrieval Augmented Generation or Long-Context LL
LLMs之RAGLong-Context:《检索增强生成还是长上下文LLMs?一项综合研究与混合方法Retrieval Augmented Generation or Long-Context
长上
下文
方法
long
LLMs
admin
18天前
4
0
LLMs之Nemotron-4:《Nemotron-4 340B Technical Report》翻译与解读
LLMs之Nemotron-4:《Nemotron-4 340B Technical Report》翻译与解读 导读:>> 背景痛点:越来越大的语言模型需要大量高
Nemotron
LLMs
Report
Technical
admin
20天前
4
0
LLMs之Alpaca:《Alpaca: A Strong, Replicable Instruction-Following Model》翻译与解读
LLMs之Alpaca:《Alpaca: A Strong, Replicable Instruction-Following Model》翻译与解读 导读:2023年3月13日发布Alpaca&
Strong
Alpaca
LLMs
Model
Instruction
admin
20天前
6
0
LLMs之GLM-130BChatGLM-1:《GLM-130B: AN OPEN BILINGUAL PRE-TRAINED MODEL》翻译与解读
LLMs之GLM-130BChatGLM-1:《GLM-130B: AN OPEN BILINGUAL PRE-TRAINED MODEL》翻译与解读 导读:2023年3月10日
ChatGLM
LLMs
GLM
Open
TRAINED
admin
20天前
4
0
LLMs之Guanaco:《QLoRA:Efficient Finetuning of Quantized LLMs》翻译与解读
LLMs之Guanaco:《QLoRA:Efficient Finetuning of Quantized LLMs》翻译与解读 导读:2023年5月23日华盛顿大学发布Gu
QLoRA
Guanaco
LLMs
Quantized
Finetuning
admin
20天前
3
0
LLMs:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》翻译与解读
LLMs:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》翻译与解读 导读:BLOOM(BigScience La
parameter
LLMs
bloom
Open
language
admin
20天前
7
0
LLMs:《Building LLM applications for production构建用于生产的LLM应用程序》翻译与解读
LLMs:《Building LLM applications for production构建用于生产的LLM应用程序》翻译与解读 LLMs:构建用于生产的LLM应用程序的挑战与案例经验总结—
应用程序
building
LLMs
LLM
production
admin
22天前
4
0
【模型精调LoRA】LoRA 低秩适应微调的工作原理和代码实现示例 What is LoRA? Low-Rank Adaptation for finetuning LLMs EXPLAINED
Low-Rank Adaptation for Fine-tuning Introduction Fine-tuning is a common technique used in transfer learning, where a
示例
工作原理
模型
代码
LLMs
admin
22天前
3
0
LLMs之Vicuna:《Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality》翻译与解读
LLMs之Vicuna:《Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality》翻译与解读 导读:20
Source
Chatbot
Open
LLMs
Vicuna
admin
25天前
5
0