论文研读

图解 transformer——多头注意力

这篇文章是关于图解Transformer系列的第三篇,详细介绍了多头注意力机制的工作原理。多头注意力机制在Transformer中起着核心作用,通过将查询、键和值的参数...

OpenAI最新的论文:《Let’s Verify Step by Step》

文档主要论述了大语言模型训练奖励模型中结果和过程监督的比较、比较中采用的方法以及研究的贡献 What are hallucinations in large language models and w...

AI相关论文合集

收集 AIGC 最有用的工具、材料、出版物和报告 https://github.com/wel3kxial/AIGC_Resources

transformers:为 Jax、PyTorch 和 TensorFlow 打造的先进的自然语言处理

🤗 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用...

IBM加入战局,任意大模型低成本变ChatGPT方法开源,个别任务超GPT-4

科幻中有机器人三原则,IBM说不够,要十六原则 最新大模型研究工作中,以十六原则为基础,IBM让AI自己完成对齐流程。 全程只需300行(或更少)人类标注数据...

大模型框架论文合集(二)

传送门:https://github.com/huggingface/transformers/blob/main/README_zh-hans.md

大模型论文

传送门:https://github.com/RUCAIBox/LLMSurvey