OpenAI最新的论文:《Let’s Verify Step by Step》 文档主要论述了大语言模型训练奖励模型中结果和过程监督的比较、比较中采用的方法以及研究的贡献 What are hallucinations in large language models and w... 论文研读 3年前03000
图解 transformer——多头注意力 这篇文章是关于图解Transformer系列的第三篇,详细介绍了多头注意力机制的工作原理。多头注意力机制在Transformer中起着核心作用,通过将查询、键和值的参数矩阵拆分为多个注意力头并并行计算... 行业报告论文研读 2年前01840
大模型框架论文合集(二) 传送门:https://github.com/huggingface/transformers/blob/main/README_zh-hans.md 论文研读 3年前01280
IBM加入战局,任意大模型低成本变ChatGPT方法开源,个别任务超GPT-4 科幻中有机器人三原则,IBM说不够,要十六原则 最新大模型研究工作中,以十六原则为基础,IBM让AI自己完成对齐流程。 全程只需300行(或更少)人类标注数据,就把基础语言模型变成ChatGPT式的A... 论文研读# AI论文 3年前01170
transformers:为 Jax、PyTorch 和 TensorFlow 打造的先进的自然语言处理 🤗 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 🤗 Transforme... 论文研读# 论文 1年前0840
The 2025 AI Engineering Reading List The picks from all the speakers in our Best of 2024 series catches you up for 2024, but since we wro... 论文研读 11个月前0220