10.08 今日面经题目分享

HBase 的适用场景是什么?

HBase 是一种分布式的、可伸缩的列式存储系统,适用于以下场景:

  1. 大规模数据存储和处理:HBase适用于需要存储和处理大规模数据集的场景,可以处理PB级别的数据。
  2. 实时读写需求:HBase提供了快速的随机读写能力,适用于需要实时访问和更新数据的场景。
  3. 高可靠性和容错性要求:HBase在设计上具有高可靠性和容错性,通过数据的复制和分布式存储,可以保证数据的可靠性和可用性。
  4. 高并发读写需求:HBase支持高并发的读写操作,能够满足多用户同时访问和更新数据的需求。
  5. 弹性扩展性:HBase可以方便地进行水平扩展,可以根据数据量的增长自动进行分片和负载均衡,适用于需要灵活扩展存储容量的场景。

总而言之,HBase适用于需要存储和处理大规模数据集、实时读写、高可靠性和容错性、高并发读写、弹性扩展性的场景。

如何对 500GB 数据进行全局 Shuffle?

对于500GB的数据进行全局Shuffle的一种常见方法是使用分布式计算框架,如Apache Hadoop或Apache Spark。

在Hadoop中,可以使用MapReduce编程模型来实现全局Shuffle。首先,将数据分割成多个数据块,并将这些数据块分发到不同的节点上进行并行处理。在Map阶段,每个节点会对数据进行处理并生成键值对。然后,这些键值对会按照键进行分区,并发送到Reducer节点上。在Reducer节点上,会对相同键的值进行聚合和排序,最终生成全局Shuffle的结果。

在Spark中,可以使用RDD(弹性分布式数据集)进行全局Shuffle。类似于Hadoop中的MapReduce模型,Spark也使用了类似的Map和Reduce操作。首先,通过读取数据创建一个RDD,并进行转换操作以生成键值对。然后,通过调用reduceByKey等操作将相同键的值进行聚合和排序。最后,将结果存储到文件系统或其他数据存储中。

无论是使用Hadoop还是Spark,全局Shuffle都需要合理设置参数来控制数据分区和调优性能。此外,还可以考虑使用其他优化技术,如压缩、缓存和数据本地化等,以提高全局Shuffle的效率和性能。

Spark 为什么会比 MapReduce 更快?

Spark比MapReduce更快的原因有以下几点:

  1. 内存计算:Spark将数据存储在内存中,而不是在磁盘上。这样可以避免磁盘的读写操作,大大提高了计算速度。
  2. DAG执行引擎:Spark使用DAG(有向无环图)执行引擎,可以将多个计算步骤合并为一个DAG,从而减少了磁盘读写和数据传输的开销。
  3. 运算模型:Spark提供了更多的高级运算模型,如RDD、DataFrame和Dataset等,可以更方便地进行数据处理和分析。而MapReduce只提供了基本的map和reduce操作。
  4. 数据共享:在Spark中,可以将多个计算任务之间的数据共享到内存中,避免了重复计算,提高了计算效率。而MapReduce每次计算都需要从磁盘读取数据。
  5. 运行模式:Spark支持交互式运行模式,可以在数据处理过程中进行实时调试和优化。而MapReduce只支持批处理模式。

综上所述,Spark通过内存计算、DAG执行引擎、更多的运算模型、数据共享和交互式运行模式等特点,使得其在处理大数据时更快速和高效。

详细描述一下 Hadoop 高可用的原理?

Hadoop的高可用性是通过Hadoop集群中的主节点和从节点之间的备份和自动故障恢复机制来实现的。

首先,Hadoop集群中有两种类型的节点:主节点(NameNode和JobTracker)和从节点(DataNode和TaskTracker)。主节点负责管理整个集群的元数据和任务调度,从节点则负责存储数据和执行任务。

Hadoop的高可用性主要围绕主节点的故障恢复展开。当主节点失败时,系统会自动将备份节点(Secondary NameNode和Standby NameNode)中的元数据恢复到新的主节点上,并将新的主节点提升为活跃状态。这个过程称为故障切换。备份节点会定期与主节点进行通信,以保持数据同步。

为了确保高可用性,Hadoop还使用了数据复制机制来保护数据。在Hadoop中,默认情况下,每个数据块会被复制到多个从节点上,这些从节点通常位于不同的机架上。当一个从节点失败时,系统会自动从其他副本中选择一个可用的副本来进行读取操作,保证数据的可靠性和可用性。

此外,Hadoop还使用了心跳机制来检测节点的状态。每个节点都会定期向主节点发送心跳信号,以表明自己的存活状态。如果主节点在一定时间内没有收到来自某个节点的心跳信号,系统会认为该节点已经故障,并触发相应的恢复流程。

总的来说,Hadoop的高可用性通过备份和自动故障恢复机制、数据复制和心跳机制等多种手段来保证集群的稳定运行和数据的可靠性。这些机制有效地减少了系统故障对业务的影响,并提供了可靠的大数据处理平台。

Hive 中 row_number, rank 和 dense rank 窗口函数的区别?

在Hive中,row_number、rank和dense rank都是窗口函数,用于在查询结果中对数据进行排序和分组。

  1. row_number函数:它为每一行分配一个唯一的整数值,这个值根据窗口排序规则进行排序。即使两个行的值相同,它们的row_number值也会不同。例如,如果有5行数据,排序后的结果分别为1、2、3、4、5。
  2. rank函数:它为每一行分配一个排名值,根据窗口排序规则进行排序。如果两个行的值相同,它们的rank值也会相同,而下一个行将跳过对应数量的排名。例如,如果有5行数据,排序后的结果分别为1、2、2、4、5。
  3. dense rank函数:它为每一行分配一个紧凑的排名值,根据窗口排序规则进行排序。即使两个行的值相同,它们的dense rank值也会不同,而下一个行将始终增加1。例如,如果有5行数据,排序后的结果分别为1、2、2、3、4。

总结来说,row_number函数为每一行分配唯一的整数值,rank函数为每一行分配排名值,而dense rank函数为每一行分配紧凑的排名值。

Hive 中行转列、列转行的函数有哪些?

在Hive中,行转列和列转行的函数主要有以下几个:

  1. 行转列:TRANSPOSE:将行数据转置为列数据。COLLECT_SET:将行数据按照指定的列进行分组,并将每组中的某一列的值收集到一个数组中。
  2. 列转行:EXPLODE:将一个数组或者一个Map类型的列拆分成多行,每行包含原列中的一个元素或者键值对。STACK:将多个列按照指定的顺序进行堆叠,每个输入列生成一行输出。

以上是Hive中常用的行转列和列转行的函数,可以根据具体需求选择适合的函数进行数据转换。

简要介绍一下 Spark Streaming 的基本原理是什么?

Spark Streaming是Apache Spark的一个组件,用于实时流数据处理。其基本原理是将实时数据流划分为一系列小的批次,然后将这些批次作为离散的数据集在Spark引擎上进行处理。

Spark Streaming通过接收实时数据流并将其分解为一系列离散的数据片段,称为微批次(micro-batches)。每个微批次都是一个包含一段时间内数据的RDD(弹性分布式数据集)。这些RDD可以与Spark的批处理引擎无缝集成,从而利用Spark的分布式计算能力进行处理。

在每个微批次中,Spark Streaming可以应用一系列转换和操作,例如过滤、映射、聚合等。这些操作可以基于微批次中的数据进行计算,并生成结果。处理结果可以存储在内存中、输出到外部系统或进行其他操作。

Spark Streaming还支持高级功能,如窗口操作和状态管理。窗口操作可以基于时间或数据数量对数据进行分组和处理,以便进行更复杂的分析。状态管理允许Spark Streaming跟踪和维护每个微批次的中间状态,从而支持更复杂的计算和分析。

总之,Spark Streaming的基本原理是将实时数据流分解为离散的微批次,并利用Spark引擎的分布式计算能力进行处理和分析。这种设计使得Spark Streaming能够提供高吞吐量、低延迟的实时数据处理能力。

Flink 和 SparkStreaming 的区别是什么?

Flink和Spark Streaming是两个流式处理框架,它们的区别主要体现在以下几个方面:

  1. 数据处理模型:Flink采用基于事件时间的处理模型,而Spark Streaming采用基于批处理的处理模型。Flink对于事件的处理是基于事件时间的顺序,而Spark Streaming则将数据划分为一小批一小批进行处理。
  2. 精确一次语义:Flink支持精确一次的处理语义,可以确保数据只被处理一次,而Spark Streaming则无法提供这样的保证。
  3. 窗口操作:Flink提供了更灵活的窗口操作,可以根据时间和数量等多个维度进行窗口的定义和计算,而Spark Streaming则只支持基于时间的窗口操作。
  4. 状态管理:Flink内置了分布式状态管理机制,可以轻松处理与事件相关的状态信息,并支持容错和恢复。而Spark Streaming需要借助外部的存储系统来管理状态。
  5. 执行引擎:Flink使用自己的执行引擎,可以实现更低的延迟和更高的吞吐量。而Spark Streaming则是基于Spark的执行引擎,受到Spark的一些限制。

需要注意的是,Flink和Spark Streaming都是优秀的流式处理框架,选择使用哪个取决于具体的业务需求和场景。

Flink 中 Connect 算子和 Union 算子的区别是什么?

Connect 算子和 Union 算子都是 Flink 中用于合并多个流的算子,但两者有一些区别。

  1. 输入数据类型:Connect 算子要求合并的流的数据类型可以不同,而 Union 算子要求合并的流的数据类型必须相同。
  2. 输出数据类型:Connect 算子的输出是一个 ConnectedStreams 对象,可以使用 CoMap、CoFlatMap、CoFilter 等函数对不同流的数据进行处理。Union 算子的输出是一个 DataStream 对象,只能对同一类型的数据进行处理。
  3. 并行度控制:Connect 算子可以独立设置每个输入流的并行度,而 Union 算子会将所有输入流的并行度设置为相同的值。
  4. 状态处理:Connect 算子可以为每个输入流维护独立的状态,而 Union 算子将所有输入流的状态合并为一个。

总的来说,Connect 算子适用于需要合并不同类型流,并对每个流进行独立处理的场景,而 Union 算子适用于合并同类型流,并对整体流进行统一处理的场景。

Flink 是如何保证 Exactly-Once 语义的?

Flink 通过以下几个机制来保证 Exactly-Once 语义:

  1. 状态一致性:Flink 使用分布式快照机制来保存作业状态。当发生故障时,可以从最近的快照中恢复作业状态。这样可以确保在故障恢复后作业的状态与故障发生前一致,从而保证 Exactly-Once 语义。
  2. 精确的事件时间处理:Flink 使用事件时间处理来确保事件按照其发生时间进行处理,而不是按照数据到达时间。事件时间是由事件本身携带的时间戳决定的,而不是由系统时间决定。这样可以避免由于系统时间的不准确性而引入的数据重复或丢失。
  3. At-Least-Once 语义的源端和接收端:Flink 的数据源和数据接收器(sink)都支持 At-Least-Once 语义。数据源可以重播过去的数据,并在发生故障时重启作业。数据接收器可以确保写入外部系统的数据不会丢失。
  4. 事务性写入外部系统:对于支持事务的外部系统,Flink 可以以事务的方式写入数据,确保数据的 Exactly-Once 语义。Flink 内部使用两阶段提交(Two-Phase Commit)协议来保证事务的一致性。

综上所述,Flink 通过状态一致性、精确的事件时间处理、At-Least-Once 语义的源端和接收端以及事务性写入外部系统等机制来保证 Exactly-Once 语义的实现。

Java 中深拷贝和浅拷贝的区别是什么?

在Java中,深拷贝和浅拷贝是对于对象复制的两种不同方式。

浅拷贝是创建一个新对象,该对象的实例变量与原对象相同,如果有引用类型的成员变量,浅拷贝仅仅复制了引用而不是创建新的对象。这意味着原对象和浅拷贝对象会共享相同的引用类型成员变量,对其中一个对象的修改会影响到另一个对象。

深拷贝是创建一个新对象,该对象的所有实例变量都会被复制,并且会为引用类型的成员变量创建新的对象。这意味着原对象和深拷贝对象是完全独立的,对其中一个对象的修改不会影响到另一个对象。

在Java中,可以通过实现Cloneable接口和重写clone()方法来实现浅拷贝。对于深拷贝,可以通过实现Serializable接口并使用对象序列化和反序列化来实现,或者通过手动复制所有引用类型成员变量的值来实现。

需要注意的是,如果引用类型成员变量也实现了Cloneable接口并进行了深拷贝,那么在进行深拷贝时需要在clone()方法中递归调用成员变量的clone()方法,确保所有层级的引用类型对象都被正确复制。

Java 中 String、StringBuffer、StringBuilder 的区别是什么?

String、StringBuffer、StringBuilder 是 Java 中用于处理字符串的类。

String 是不可变的,即创建之后不可修改,每次对 String 的操作都会生成一个新的 String 对象,因此频繁的字符串操作会产生大量的临时对象,影响性能。

StringBuffer 是可变的,可以对字符串进行增删改操作,它的所有方法都是线程安全的,适用于在多线程环境下进行字符串操作。

StringBuilder 同样是可变的,与 StringBuffer 类似,可以对字符串进行增删改操作,但它的所有方法都不是线程安全的,适用于在单线程环境下进行字符串操作。

因此,如果在单线程环境下进行字符串操作,推荐使用 StringBuilder,如果在多线程环境下进行字符串操作,推荐使用 StringBuffer。而如果字符串不需要被修改,建议使用 String,因为它的不可变性能够提供更好的性能和安全性。

Java 中 ArrayList和LinkedList区别是什么?

ArrayList和LinkedList是Java中两种不同的集合类,它们的区别主要体现在以下几个方面:

  1. 数据结构:ArrayList是基于动态数组实现的,通过数组实现元素的存储和访问;而LinkedList则是基于双向链表实现的,通过链表节点实现元素的存储和访问。
  2. 插入和删除操作:ArrayList在尾部进行插入和删除操作比较高效,因为它使用数组实现,可以直接在尾部进行元素的增删;而在中间或头部进行插入和删除操作时,由于需要移动元素,效率较低。而LinkedList在任意位置进行插入和删除操作效率较高,因为只需要更改节点的指针即可。
  3. 随机访问:ArrayList支持通过下标进行随机访问,可以通过索引快速定位元素;而LinkedList不支持直接通过下标访问,需要从头节点或尾节点开始遍历链表,直到找到对应位置的元素。
  4. 内存占用:ArrayList在存储元素时需要预留一定的空间,当元素数超过预留空间时,需要进行动态扩容;而LinkedList则不需要进行扩容操作,但是每个节点需要存储额外的指针信息,相对于ArrayList来说占用的内存较多。

综上所述,如果需要频繁进行插入和删除操作,并且不需要频繁随机访问元素,可以选择使用LinkedList;如果需要频繁随机访问元素,可以选择使用ArrayList。

Java 中 ArrayList扩容过程是什么?

ArrayList的扩容过程如下:

  1. 在创建ArrayList对象时,默认会创建一个初始容量为10的数组。
  2. 当添加新元素时,如果当前数组已满(即元素个数等于数组容量),则会触发扩容操作。
  3. 扩容操作会创建一个新的数组,新数组的容量是原数组容量的1.5倍(JDK1.4之前为原容量的2倍)。
  4. 将原数组中的元素逐个复制到新数组中。
  5. 更新ArrayList内部的引用指向新数组。
  6. 新元素添加到新数组中。

这个过程会在ArrayList的add操作中自动进行,不需要手动干预。扩容操作的时间复杂度为O(n),其中n为当前数组的容量。由于每次扩容都是以原容量为基础进行扩展,所以平均情况下添加元素的时间复杂度为O(1)。

Java 中 HashMap 底层实现是什么?

Java中HashMap底层实现是通过哈希表(HashTable)和链表(LinkedList)结合的方式来实现的。具体来说,HashMap内部维护了一个数组,数组的每个元素是一个链表的头节点。当我们往HashMap中插入键值对时,首先会根据键的哈希值计算出在数组中的位置,然后将该键值对插入到对应链表的末尾。如果发生哈希冲突,即多个键的哈希值相同时,会将新的键值对插入到链表的头部。当链表的长度超过一定阈值(默认为8),链表就会转化为红黑树,以提高查询效率。在进行查询操作时,根据键的哈希值找到对应链表或红黑树,然后再遍历链表或搜索红黑树,找到对应的值。这种底层实现方式使得HashMap在插入、删除和查询操作上都具有较高的效率。Question:Java 中HashMap扩容过程是什么样子?Answer:在Java中,HashMap的扩容过程主要包括以下几个步骤:

  1. 当HashMap中的元素个数达到负载因子(默认为0.75)与当前容量的乘积时,就会触发扩容操作。
  2. 创建一个新的容量是原容量的两倍的数组,并将原数组中的元素重新映射到新数组中。
  3. 遍历原数组中的每个元素,重新计算其在新数组中的位置,并将其放入对应的位置。
  4. 如果原数组中存在多个元素映射到新数组同一个位置的情况,就使用链表或红黑树(JDK 1.8及以上版本)来解决冲突。
  5. 扩容完成后,HashMap的容量会变为原来的两倍,并且负载因子不变。

需要注意的是,由于HashMap的扩容操作是非常耗时的,因此在设计HashMap时,应尽量避免频繁的扩容操作,以提高性能。

Java 中ConcurrentHashMap支持多并发的原理是什么?

ConcurrentHashMap 是 Java 中的线程安全的哈希表实现,它支持多并发操作的原理主要有以下几点:

  1. 分段锁:ConcurrentHashMap 内部将数据分成多个段,每个段都可以独立地进行加锁和解锁操作。这样不同的线程可以同时访问不同的段,从而提高并发能力。
  2. 锁分离:与传统的同步容器不同,ConcurrentHashMap 的读操作并不需要加锁,多个线程可以同时进行读操作,只有写操作需要加锁。这样可以避免不必要的阻塞,提高了并发读的效率。
  3. CAS(比较并交换)操作:ConcurrentHashMap 使用了 CAS 操作来保证线程安全。在并发写操作时,通过 CAS 操作来实现无锁的数据更新。
  4. 红黑树:ConcurrentHashMap 中的每个段内部使用了红黑树来存储数据,当链表长度超过阈值时,会将链表转化为红黑树,这样可以保证在最坏情况下仍然有较高的性能。

总的来说,ConcurrentHashMap 通过分段锁、锁分离、CAS 操作和红黑树等技术手段来保证多线程并发访问的安全性和效率。

JVM 中一个类加载的过程是什么样子?

JVM中一个类加载的过程主要分为以下几个步骤:

  1. 加载:类加载的第一步是加载,即通过类的全限定名找到对应的二进制字节码文件。这个过程可以通过类加载器完成,类加载器会根据类的名称定位到类文件,并将其读取到内存中。
  2. 验证:在加载完成后,JVM会对加载的类进行验证,确保类文件的字节码符合JVM规范,不会危害JVM的安全。验证的过程包括文件格式验证、元数据验证、字节码验证以及符号引用验证。
  3. 准备:在验证通过后,JVM会为类的静态成员变量分配内存空间,并设置默认初始值。这个过程并不会为实例变量分配内存,只是为静态变量分配。
  4. 解析:解析阶段是将符号引用替换为直接引用的过程。符号引用是一种编译时的引用,直接引用是在运行时可直接指向内存地址的引用。解析过程包括将常量池中的符号引用替换为直接引用、将类、方法、字段等符号解析为具体的内存地址。
  5. 初始化:在准备阶段完成后,JVM会开始执行类的初始化过程。类初始化时会执行类的静态代码块和静态变量的赋值操作。这个过程是类加载的最后一个阶段。
  6. 使用:类加载完成后,就可以使用该类创建对象、调用方法等操作。

需要注意的是,JVM在整个类加载过程中进行了一系列的优化,例如懒加载、缓存等,以提高类加载的效率。

简要介绍一下 JVM 有几种垃圾收集器?

JVM(Java虚拟机)有几种垃圾收集器,主要包括以下几种:

  1. Serial收集器:Serial收集器是JVM中最古老的一种垃圾收集器,它以单线程方式进行垃圾收集工作,适用于小型或者单核处理器的应用场景。
  2. Parallel收集器:Parallel收集器是Serial收集器的改进版本,它使用多线程进行垃圾收集,提高了垃圾收集的效率,适用于多核处理器的应用场景。
  3. CMS(Concurrent Mark Sweep)收集器:CMS收集器是一种以获取最短回收停顿时间为目标的收集器,它通过并发的方式进行垃圾收集,能够在主程序运行的同时进行垃圾收集,适用于对响应时间有较高要求的应用场景。
  4. G1(Garbage-First)收集器:G1收集器是一种面向服务端应用的垃圾收集器,它将堆内存划分为多个区域,并根据垃圾产生情况优先回收垃圾较多的区域,可以达到较低的停顿时间和更好的吞吐量。

这些垃圾收集器可以根据应用场景和需求进行选择和调优,以提高应用程序的性能和可用性。

Java 中 Synchronized 的底层原理是什么?

Synchronized 是 Java 中用于实现线程同步的关键字,它的底层原理是通过对象监视器(也称为内部锁或监视锁)来实现的。

当一个线程进入 synchronized 代码块时,它会尝试获取对应对象的监视器。如果该监视器没有被其他线程占用,则该线程获取到监视器并执行代码块中的逻辑。如果监视器已经被其他线程占用,该线程就会进入阻塞状态,等待监视器的释放。

在 Java 虚拟机中,每个对象都有一个与之关联的监视器锁。当一个线程获取到该对象的监视器锁时,其他线程就无法同时获取该对象的监视器锁,它们会被阻塞直到锁被释放。

在方法上使用 synchronized 关键字时,它会对该方法的整个代码块进行加锁,以保证同一时间只有一个线程可以执行该方法。而在代码块上使用 synchronized 关键字时,它只会对该代码块进行加锁,其他线程仍然可以同时执行其他非同步代码块。

需要注意的是,synchronized 关键字会引入一定的性能开销,因为每次进入 synchronized 代码块或方法时,都会进行加锁和解锁的操作。因此,在使用 synchronized 时需要权衡线程安全和性能之间的平衡。

#数仓面试##大数据##面经#

解决职场真实面试问题,分享同学真实成功案例,欢迎订阅关注!

全部评论

相关推荐

09-28 17:40
黑龙江大学 Java
#牛客创作赏金赛# 编写页面这个程序设计工程师嘴上的口头禅是  2016 年 建行刚开始最开发的时候听到的, 因为大学的时候学习的程序设计语言是一 C++为主,对于前端页面这种能看到效果 是一种很难体会的概念。学习 C 语言程序设计的时候显示 眼前的是一个命令行黑屏,学 C++, C#都是。作为大学生初学程序设计开发,黑屏可以设置为白屏, 是要坚持练习编写编译代码。 大学同学总是说 大学四年中如果能够写出一个图书管理系统,毕业才能叫开发会编程。一   直 尝试,发现延修一年才能够设计一套图书借阅系统。不会写算法,但是知道编程是怎么   回事,那是 跟着市面上培训班的视频来学习一年之后的效果。 大学中, 是学习到一些   基础技能,还是学得很认学得很认真。 毕业之后 广州,找工作找了一个月,终于找到一个初级开发 银行开发后端。 学校,写完   毕业论文之后就离开,一路向南。 刚开始开发开发的时候,没有经历过漫长的实习过程,不管没有编程开发经验,都是 特大的高压之下开发开发任务。使用建设银行的前端框架编写页面,同时写后台接口,联调,解决开发的业务 bug,测试成功提交代码。这个过程很快,但是也会让成长很快。没有一定的抗压能力,都会被退出。没有参加过编程实习, 黑龙江念书的时候,面试过一家公司,开发了一套前端编程测试题,实习就实习,就是可能会让打酱油也可能让学到点什么。 广州,   开发过一些公司的后端实习测试题,开出来的工资就是 2k-3k,但是这个过程也会很长。  建设银行退出来之后,过完国庆节日,去了一家小型的公司,遇到一个也是建设银行的高   管。前后端分离开发,新型的开发概念,2017 年元月初的时候接触了 bootstrap 前端技术框架。有前端工程师编写页面,后端开发 需要编写提供数据的接口,进行前后端联调。这种开   发模式效率更高,程序员的分工明确,压力没这么大,开发出来的系统软件用户体验也有很大   的改善。Java 开发之前是使用 JSP 和前端页面进行数据渲染,现 使用 JS 框架,更轻量级的开发。  后来的几年的开发过程中,接触的前端 js 框架虽然不多,但是更新得很快。前端工程师和后端工程师的技术技能分离得更清晰,分工明确。前端工程师虽然不是一个新的开发技   能职位,  Java 开发领域,使用 JavaScript 框架集成项目的前端页面展示效果,效率性能和用户体验都有很大的提升。 项目前后端分离之后模块开发,开发后台的开发压力减小,开发前台的 需要编写好页面和后端联   调测试数据正确性,分工明确的一种很好的配合。前端开发的工作压力肯定是有,每个职位   都有它存 的必要性,作为后端开发没有评价的必要性。建筑开发,记得小的时候是有些主   要的瓦匠什么活都可以干,但是建的都是些农村的小洋楼。 大城市,建高楼大厦,很多工   作都分得很细,效率会更高,时间就是金钱。大城市人口密度高,对人口红利要求大,质量   也高,事情不能一个人可以完成。
投递中国建设银行等公司10个岗位 牛客创作赏金赛
点赞 评论 收藏
分享
09-28 16:22
已编辑
哈尔滨工程大学 测试开发
一笑而过2222:一、编程语言相关 1. 元组和列表的区别: - 答案:元组不可变,列表可变;元组可用于存储不可更改的数据,列表更灵活用于动态数据存储。 2. python 的参数类型和作用: - 答案:位置参数按顺序传递,关键字参数通过指定参数名传递,默认参数有默认值,可变参数可接收多个值,作用是接收外部数据供函数使用。 3. python 和 C++的区别: - 答案:Python 是解释型语言,语法简洁灵活,开发效率高;C++是编译型语言,性能高,对内存管理更精细。 二、网络协议相关 1. http 的具体内容: - 答案:HTTP 是超文本传输协议,用于在 Web 上传输数据,包括请求和响应格式等。 2. http 的请求方式: - 答案:常见的有 GET、POST、PUT、DELETE 等。 3. get 和 post 的区别: - 答案:GET 用于获取数据,参数在 URL 中;POST 用于提交数据,参数在请求体中。 三、测试工具相关 1. selenium 的元素定位 8 个方式: - 答案:id、name、class name、tag name、link text、partial link text、xpath、css selector。 四、软件测试岗位能力相关 1. 软件测试岗位需要具备哪些能力? - 答案:细心、耐心、沟通能力、技术能力、问题分析和解决能力等。
点赞 评论 收藏
分享
8 30 评论
分享
牛客网
牛客企业服务