FeignClient如何共享Header及踩坑過程記錄
FeignClient共享Header及踩坑
問題
我們?cè)谡{(diào)用feign的情況下,經(jīng)常需要用到客戶端所持有的header比如說auth-token,我們需要將這些header傳遞下去
思路
使用攔截器,在客戶端攔截feign的請(qǐng)求,并把所需要的header傳遞下去
代碼:
定義攔截器
@Configuration
public class FeignInterceptor implements RequestInterceptor {
? ? @Override
? ? public void apply(RequestTemplate requestTemplate) {
? ? ? ? Map<String,String> headers = getHeaders(getHttpServletRequest());
? ? ? ? for(String headerName : headers.keySet()){
? ? ? ? ? ? requestTemplate.header(headerName, getHeaders(getHttpServletRequest()).get(headerName));
? ? ? ? }
? ? }
? ? private HttpServletRequest getHttpServletRequest() {
? ? ? ? try {
? ? ? ? ? ? return ((ServletRequestAttributes) RequestContextHolder.getRequestAttributes()).getRequest();
? ? ? ? } catch (Exception e) {
? ? ? ? ? ? e.printStackTrace();
? ? ? ? ? ? return null;
? ? ? ? }
? ? }
? ? private Map<String, String> getHeaders(HttpServletRequest request) {
? ? ? ? Map<String, String> map = new LinkedHashMap<>();
? ? ? ? Enumeration<String> enumeration = request.getHeaderNames();
? ? ? ? while (enumeration.hasMoreElements()) {
? ? ? ? ? ? String key = enumeration.nextElement();
? ? ? ? ? ? if(needThisHeader(key)){
? ? ? ? ? ? ? ?String value = request.getHeader(key);
? ? ? ? ? ? ? ?map.put(key, value);
? ? ? ? ? ? }
? ? ? ? }
? ? ? ? return map;
? ? }
? private boolean needThisHeader(String headerName){
? ? ?//todo:這里寫你的邏輯,哪些header需要傳遞,千萬不能把所有的header傳下去
? ? ? return true;
? }
}將攔截器注入到Spring
@Configuration
public class FeignSupportConfig {
? ? /**
? ? ?* feign請(qǐng)求攔截器
? ? ?*
? ? ?* @return
? ? ?*/
? ? @Bean
? ? public RequestInterceptor requestInterceptor(){
? ? ? ? return new FeignInterceptor();
? ? }
}說說坑吧
一定不能把所有的header都往下傳,這樣很可能會(huì)導(dǎo)致在調(diào)用feign的時(shí)候,請(qǐng)求類型混亂,應(yīng)該需要哪些header就穿哪些header
Feign設(shè)置Header頭部
今天嘗試用feign去調(diào)用其他部門提供的一個(gè)HTTP接口,該接口要求在請(qǐng)求中設(shè)置一個(gè)username頭部,用于身份鑒權(quán)。
@FeignClient(name = "kafka-client", url = "http://kafka.xxx.com")
public interface KafkaClient {
? ? @GetMapping(value = "/api/clusterManager/listTopics")
? ? @Headers( {"cache-control: no-cache", "username: wangyong@xxx.com"})
? ? TopicsResponse listTopics(@RequestParam("clusterName") String clusterName,
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? @RequestParam("clusterArea") String clusterArea);
}代碼寫好好,嘗試去進(jìn)行訪問
拋出如下錯(cuò)誤信息
{
? ? "timestamp": 1551768926170,
? ? "status": 500,
? ? "error": "Internal Server Error",
? ? "exception": "com.netflix.zuul.exception.ZuulException",
? ? "message": "pre:AuthAccessFilter"
}異常堆棧信息如下:
at feign.FeignException.errorStatus(FeignException.java:62)
at feign.codec.ErrorDecoder$Default.decode(ErrorDecoder.java:91)
at feign.SynchronousMethodHandler.executeAndDecode(SynchronousMethodHandler.java:134)
at feign.SynchronousMethodHandler.invoke(SynchronousMethodHandler.java:76)
at feign.ReflectiveFeign$FeignInvocationHandler.invoke(ReflectiveFeign.java:103)
at com.sun.proxy.$Proxy147.listTopics(Unknown Source)
at com.yidian.data.exptmgr.controller.KafkaController.getKafkaTopics(KafkaController.java:35)
// 省略更多異常堆棧信息
于是我嘗試通過debug來找到問題的根源,通過debug我發(fā)現(xiàn)feign會(huì)先將請(qǐng)求參數(shù)構(gòu)建成Request對(duì)象,request信息如下:

request
從圖中可看到,該Request實(shí)例的headers屬性為空,而Request又是根據(jù)RequestTemplate模板對(duì)象生成的,RequestTemplate實(shí)例信息如下:

RequestTemplate
到這里可以看出,問題是出在RequestTemplate的構(gòu)建構(gòu)成中,于是我就去跟蹤RequestTemplate構(gòu)建的代碼,發(fā)現(xiàn)RequestTemplate是根據(jù)MethodMetadata構(gòu)建而成,而MethodMetadata就是對(duì)方法配置的抽象。
? ? RequestTemplate template = resolve(argv, mutable, varBuilder);
? ? ? if (metadata.queryMapIndex() != null) {
? ? ? ? // add query map parameters after initial resolve so that they take
? ? ? ? // precedence over any predefined values
? ? ? ? template = addQueryMapQueryParameters(argv, template);
? ? ? }
? ? ? if (metadata.headerMapIndex() != null) {
? ? ? ? template = addHeaderMapHeaders(argv, template);
? ? ? }從上述代碼可以看到,header的設(shè)置是由metadata的headerMapIndex 屬性決定的,那么,設(shè)置headerMapIndex的位置,必然就和Header的解析相關(guān),于是通過查看方法引用
我找到了下面的代碼
? ? private void parseHeaders(MethodMetadata md, Method method,
? ? ? ? ? ? RequestMapping annotation) {
? ? ? ? // TODO: only supports one header value per key
? ? ? ? if (annotation.headers() != null && annotation.headers().length > 0) {
? ? ? ? ? ? for (String header : annotation.headers()) {
? ? ? ? ? ? ? ? int index = header.indexOf('=');
? ? ? ? ? ? ? ? if (!header.contains("!=") && index >= 0) {
? ? ? ? ? ? ? ? ? ? md.template().header(resolve(header.substring(0, index)),
? ? ? ? ? ? ? ? ? ? ? ? resolve(header.substring(index + 1).trim()));
? ? ? ? ? ? ? ? }
? ? ? ? ? ? }
? ? ? ? }
? ? }從代碼中我們可以清晰的看到,解析過程中是從@RequestMapping或其派生注解的header屬性中解析Header的,并且Header的key和value需要用“=”進(jìn)行分割。
于是我修改成下面的形式,
問題就解決了
? ?@GetMapping(value = "/api/clusterManager/listTopics",
? ? ? ? headers = {"cache-control=no-cache", "username=wangyong@xxx.com"})
? ? TopicsResponse listTopics(@RequestParam("clusterName") String clusterName,
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? @RequestParam("clusterArea") String clusterArea);以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Java大數(shù)據(jù)開發(fā)Hadoop?MapReduce
MapReduce的思想核心是“分而治之”,適用于大量復(fù)雜的任務(wù)處理場景(大規(guī)模數(shù)據(jù)處理場景)Map負(fù)責(zé)“分”,即把復(fù)雜的任務(wù)分解為若干個(gè)“簡單的任務(wù)”來并行處理??梢赃M(jìn)行拆分的前提是這些小任務(wù)可以并行計(jì)算,彼此間幾乎沒有依賴關(guān)系2023-03-03
SpringBoot自定義Redis實(shí)現(xiàn)緩存序列化詳解
Spring提供了一個(gè)RedisTemplate來進(jìn)行對(duì)Redis的操作,但是RedisTemplate默認(rèn)配置的是使用Java本機(jī)序列化。如果要對(duì)對(duì)象操作,就不是那么的方便。所以本文為大家介紹了另一種SpringBoot結(jié)合Redis實(shí)現(xiàn)序列化的方法,需要的可以參考一下2022-07-07
java實(shí)現(xiàn)水仙花數(shù)的計(jì)算
這篇文章主要為大家詳細(xì)介紹了java實(shí)現(xiàn)水仙花數(shù)的計(jì)算,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-08-08
Java編程實(shí)現(xiàn)二項(xiàng)分布的采樣或抽樣實(shí)例代碼
這篇文章主要介紹了Java編程實(shí)現(xiàn)二項(xiàng)分布的采樣或抽樣實(shí)例代碼,小編覺得還是挺不錯(cuò)的,具有一定借鑒價(jià)值,需要的朋友可以參考下2018-01-01

