2025/03/16蚂蚁笔试第一题思路和代码

思路:直接按题意模拟,维护一个指针表示当前指向的字母位置,每次按照步长增加即可。由于题目给的字符串是一个循环字符串,因此指针需要不断对字符串的长度取模。

#include <bits/stdc++.h>
using namespace std;
int main() {
    string s;
    int k;
    cin >> s >> k; 
    string res;    
    int step = 1;  
    int i = 0, j = 0;
    int n = s.length(); 
    while (j < k) {
        res += s[i];
        i += step;  
        i %= n; 
        step += 1; 
        j += 1; 
    }
    cout << res << endl;
    return 0;
}

#蚂蚁笔试题##蚂蚁笔试#
笔试能力提升宝典 文章被收录于专栏

本专栏专注于互联网大厂春招、秋招笔试编程真题的深度解析与实战演练,助你轻松攻克笔试难关。无论你是应届毕业生,还是准备跳槽的职场人,这里都有你需要的干货内容。我们精选了一线互联网企业的经典笔试题目,涵盖数据结构、算法、动态规划、字符串处理等高频考点,并提供详细的解题思路与代码实现。通过本专栏,你将掌握笔试核心技巧,提升编程实战能力,轻松应对大厂笔试挑战。快来加入我们,开启你的大厂求职之旅吧!

全部评论

相关推荐

03-24 14:48
腾讯_HR
需要内推码的可以用下面这个链接:内推链接:https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw#26届实习##大模型##八股##面经##腾讯##内推#腾讯-混元大模型面经-华5硕部门与岗位:TEG&nbsp;-&nbsp;混元大模型团队&nbsp;-&nbsp;大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了&nbsp;Qwen&nbsp;和&nbsp;DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索&nbsp;MoE&nbsp;架构,MoE&nbsp;相比&nbsp;Dense&nbsp;有什么好处在之前实习的时候用&nbsp;LoRA&nbsp;微调过&nbsp;Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT&nbsp;和&nbsp;RLHF&nbsp;的作用分别是什么在&nbsp;RLHF&nbsp;中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22.&nbsp;括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用&nbsp;DeepSpeed&nbsp;微调过&nbsp;Qwen2-72B,于是面试官问了&nbsp;ZeRO-1,ZeRO-2,ZeRO-3&nbsp;三个模式的区别当时你用&nbsp;DeepSpeed&nbsp;ZeRO-3&nbsp;来微调&nbsp;Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了&nbsp;DeepSpeed,还用过其他的什么优化方法吗我看你也用到了&nbsp;LoRA,知道&nbsp;LoRA&nbsp;的原理吗,A&nbsp;和&nbsp;B&nbsp;两个矩阵怎么初始化,有了解过其他的初始化方法吗对&nbsp;RLHF&nbsp;了解的多吗代码:3.&nbsp;无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊&nbsp;RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么&nbsp;work,其他方案有考虑吗在微调&nbsp;Qwen&nbsp;的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下&nbsp;RLHF&nbsp;的流程,之前有用&nbsp;RLHF&nbsp;做过模型对齐吗在做对齐的时候,为什么&nbsp;SFT&nbsp;之后还要做&nbsp;RLHF,只用&nbsp;SFT&nbsp;可以吗知道哪些强化学习算法,除了&nbsp;PPO&nbsp;和&nbsp;DPO&nbsp;这些呢,DeepSeek&nbsp;用的&nbsp;GRPO&nbsp;相比于&nbsp;GPT&nbsp;的&nbsp;PPO&nbsp;做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题&nbsp;322.&nbsp;零钱兑换518.&nbsp;零钱兑换&nbsp;II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写&nbsp;RLHF,平常有用过&nbsp;RLHF&nbsp;吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面
腾讯
|
实习
|
超多精选岗位
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务