The 2025 AI Engineering Reading List The picks from all the speakers in our Best of 2024 series catches you up for 2024, but since we wro... 论文研读 2周前040
图解 transformer——多头注意力 这篇文章是关于图解Transformer系列的第三篇,详细介绍了多头注意力机制的工作原理。多头注意力机制在Transformer中起着核心作用,通过将查询、键和值的参数矩阵拆分为多个注意力头并并行计算... 行业报告论文研读 10个月前01530
OpenAI最新的论文:《Let’s Verify Step by Step》 文档主要论述了大语言模型训练奖励模型中结果和过程监督的比较、比较中采用的方法以及研究的贡献 What are hallucinations in large language models and w... 论文研读 2年前02480
transformers:为 Jax、PyTorch 和 TensorFlow 打造的先进的自然语言处理 🤗 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 🤗 Transforme... 论文研读# 论文 2个月前0640
IBM加入战局,任意大模型低成本变ChatGPT方法开源,个别任务超GPT-4 科幻中有机器人三原则,IBM说不够,要十六原则 最新大模型研究工作中,以十六原则为基础,IBM让AI自己完成对齐流程。 全程只需300行(或更少)人类标注数据,就把基础语言模型变成ChatGPT式的A... 论文研读# AI论文 2年前01040
大模型框架论文合集(二) 传送门:https://github.com/huggingface/transformers/blob/main/README_zh-hans.md 论文研读 2年前0930