ImageVerifierCode 换一换
格式:DOCX , 页数:3 ,大小:15.99KB ,
资源ID:491523      下载积分:5 金币
已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(百度算法工程师面试题8道含解析.docx)为本站会员(飞猪)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(发送邮件至doc331@126.com或直接QQ联系客服),我们立即给予删除!

百度算法工程师面试题8道含解析.docx

1、百度算法工程师面试题8道含解析问题1:讲一下Iora的原理1.ora方法指的是在大型语言模型上对指定参数增加额外的低秩矩阵,也就是在原始PLM旁边增加一个旁路,做一个降维再升维的操作。并在模型训练过程中,固定PLM的参数,只训练降维矩阵A与升维矩阵B。而模型的输入输出维度不变,输出时将BA与PLM的参数叠加。用随机高斯分布初始化A,用0矩阵初始化B。问题2:讲一下GBDT的原理GBDT(GradientBoostingDecisionTree)是一种集成学习方法,它通过迭代训练决策树,每一次迭代都试图修正前一次迭代的错误。具体而言,GBDT通过拟合残差(目标值与当前模型的预测之差)来逐步改进模

2、型。在每一轮迭代中,新的决策树被训练以捕捉残差中的模式。最终,所有树的预测被组合起来形成最终的预测模型。问题3:翻译任务一般用什么架构翻译任务主要使用的是seq2seq架构,目前主流的翻译架构是基于TranSfOrnler模型的,它采用自注意力机制(self-attention)来捕捉输入序列中不同位置的关联信息,并通过编码器-解码器结构来实现翻译。问题4:encoder-only,decoder-only,encoder-decoder区别Encoder-only:只有编码器,用于将输入序列编码成固定维度的表示,常用于特征提取。Decoder-only:只有解码器,用于从固定维度的表示生成输

3、出序列,通常在生成式任务中使用。Encoder-decoder:同时包含编码器和解码器,用于序列到序列的任务,如机器翻译。编码器将输入序列编码成上下文信息,解码器使用该信息生成输出序列。问题5:讲一下transformer的结构Transformer模型由编码器和解码器组成,其核心是自注意力机制。每个编码器和解码器均由多个相同的层叠加而成,每一层包含自注意力子层和全连接前馈网络子层。输入序列通过多头自注意力机制进行处理,然后通过前馈网络。每个子层后都有残差连接和层标准化。编码器和解码器之间通过编码器-解码器注意力连接。问题6:见一下FlashAttention的原理FlashAttention

4、从attention计算的GPUmemory的read和write方面入手来提高attention计算的效率。其主要思想是通过切块(tiling)技术,来减少GPUHBM和GPUSRAM之间的数据读写操作。问题7:fp32和fpl6的区别,混合精度的原理fp32:32位浮点数,占用4字节,提供高精度的数值表示。fpl6:16位浮点数,占用2字节,提供相对较低的数值表示精度,但在许多情况下仍足够。混合精度指的是在模型训练中同时使用fpl6和fp32,以在计算中提高效率。通常,模型参数使用fpl6表示,而梯度和累积值使用fp32表示。这样可以减少内存占用和计算开销,加速训练过程。问题8:BeamSearCh的原理Beamsearch是一种在序列生成任务中选择最优输出序列的搜索算法。在每一步,它保留概率最高的k个候选,然后根据下一个词的预测继续扩展这些候选。这个过程一直进行到生成完整序列为止。BeamSeareh允许在搜索空间中进行局部剪枝,以平衡搜索的广度和深度,提高生成的序列的质量。

宁ICP备18001539号-1