1.问了我项目的问题,spark整合kafka这阶段做了什么事?答:jdbc工具类向mysql表中插入数据,产生binlog日志文件,maxwell捕获到,kafka进行消费,然后javaapi上面编写kafka工具类,获取主题,编写配置信息,get到消费的内容,是JSON格式,转换json格式为row,然后转换为dataframe表,使用sparksql处理。2.kafka的acks值有了解吗,给我讲一讲?答:指定分区副本,控制消息可靠性。追问,acks值可以取哪些,分别代表什么?答:0:生产者不等待分区确认,消息到达kafka便会认为消息已经发送成功,低延迟,但是安全性最低。 ...