YuyaoGe's Website
YuyaoGe's Website
About
Publications
Posts
Projects
Light
Dark
Automatic
LLM
EMNLP2024论文分享 | Fewer is More:CoT示例要少而精
作者提出CoT-Influx方法,一种对CoT的示例和内容进行优化从而提高LLMs推理能力的方法,其核心思想是通过剪枝最大化有效信息的输入。
Yuyao Ge 葛钰峣
Oct 24, 2024
2 min read
论文分享
Translating Words to Worlds: Zero-Shot Synthesis of 3D Terrain from Textual Descriptions Using Large Language Models
The current research on text-guided 3D synthesis predominantly utilizes complex diffusion models, posing significant challenges in …
Guangzi Zhang
,
Lizhe Chen
,
Yu Zhang
,
Yan Liu
,
Yuyao Ge 葛钰峣
,
Xingquan Cai
PDF
Cite
DOI
论文分享 | 广泛的解码策略导致大模型越狱
在本文,作者提出了一个新的数据集MaliciousInstruct,一种模型回答毒性评估方式,一种通过操纵解码超参数的攻击手段——generation exploitation,一种对齐策略——generation-aware alignment
Yuyao Ge 葛钰峣
Apr 9, 2024
1 min read
论文分享
论文解读 | TTA:大模型回答置信度评估新方法
本文提出了一种新的方法,全面评估大模型多个候选答案的可信度,以减轻大模型对于错误答案的过度自信。
Yuyao Ge 葛钰峣
Mar 25, 2024
2 min read
论文分享
Softmax回归及其优化问题
本文所属系列为笔者学习陈天奇和J.Zico Kolter在CMU开设的Deep Learning Systems的课程笔记。
Yuyao Ge 葛钰峣
Mar 21, 2024
3 min read
笔记
论文解读 | 3月最新用于游戏的大模型Agent综述
3月最新用于游戏的大模型Agent综述
Yuyao Ge 葛钰峣
Mar 21, 2024
1 min read
论文分享
论文解读 | 2月最新大模型综述——来自Word2Vec作者Tomas Mikolov
Word2Vec作者Tomas Mikolov二月最新关于大模型综述
Yuyao Ge 葛钰峣
Mar 16, 2024
2 min read
论文分享
编码实践 | 一文读懂Self-Attention机制
这篇文章将用编码复现Transformer架构中使用的自注意力机制。
Yuyao Ge 葛钰峣
Mar 10, 2024
3 min read
编码实践
论文解读 | Auto CoT——利用聚类自动生成CoT
在过去CoT有两种范式,一种是Zero-shot,在问题末尾添加"Let’s think step by step"。另一种Manual CoT(Few-shot CoT),每个例子由问题和推理链组成。第二种方法表现是否好取决于CoT写的好不好,不过这需要人手工来写。本文通过提出Auto-CoT这一方法使得Few-shot CoT可以自动生成,解放双手!
Yuyao Ge 葛钰峣
Mar 2, 2024
1 min read
论文分享
论文解读 | 思维链越长大模型越聪明?
思维链(Chain of thought - CoT)在过去的实践中已经证明对提升大模型的推理能力有显著帮助。然而,目前还没有一项工作解释思维链长度与推理能力之间的关系。本文围绕这一核心问题,围绕CoT做了系统实验,并给出许多有意思和反直觉的结论。
Yuyao Ge 葛钰峣
Feb 26, 2024
1 min read
论文分享
»
Cite
×